Сэм Альтман рассказал о своем видении будущего ИИ: он его не опасается и считает требования к нему преувеличенными
На Всемирном экономическом форуме в Давосе Сэм Альтман, чья компания OpenAI стоит за ChatGPT, рассказал о будущем ИИ, а также о своем увольнении с поста генерального директора. Это событие бурно обсуждалось в конце 2023 года, когда Альтман был неожиданно уволен, но вскоре вернулся в компанию в той же должности.
ИИ стал одной из главных тем, обсуждавшихся на ВЭФ. В то время как одни опасаются, что человечество уже не будет прежним, другие разочарованы его неспособностью управлять автомобилем. CEO OpenAI рассказал о том, на каком этапе развития находится ИИ, о его возможностях и ограничениях этой технологии.
Альтман указал на то, что этот инструмент, имея на сегодняшний день очень ограниченные возможности и серьезные недостатки, способен повысить эффективность широкого круга процессов в самых разных сферах деятельности. Однако существуют и ограничения, о которых, по его мнению, следует помнить. «ИИ может серьезно ошибаться. Поэтому, возможно, ему не стоит управлять автомобилем, однако он незаменим при написании статей или программного кода», — сказал он.
Альтман добавил, что в то время как люди склонны прощать ошибки других людей, они крайне требовательны к тому, что делают машины. Поэтому, чтобы сказать, что ИИ успешно справляется с управлением автомобиля, он должен быть в 10, а то и в 100 раз безопаснее. И то же касается других систем на базе ИИ, считает глава OpenAI.
Еще одним поводом для опасений является то, что на данном этапе мы не можем точно сказать, как ИИ приходит к тому или иному результату. Именно поэтому степень доверия к нему не позволяет доверить технологии что-то более серьезное, чем заполнение медицинских форм или написание эссе.
«Я не могу заглянуть в человеческий мозг и, глядя на сотни триллионов синапсов, понять, как он работает. Но я могу попросить человека объяснить почему он совершил то или иное действие или почему он думает так, а не иначе. И, узнав ход его мысли, можно понять, насколько эти размышления логичны, — сказал Альтман. — Точно также, в будущем ИИ сможет объяснить то, как он пришел к тому или иному выводу, используя естественный язык. И тогда мы сможем оценить его логику».
Многие полагают, что ИИ сможет заменить людей практически во всем. И если раньше считалось, что машина не способна на эмпатию, сегодня мы знаем, что это не так. В свое время шахматы стали одной из первых жертв ИИ. Когда Deep Blue смог обыграть Каспарова, многие назвали это концом эпохи шахмат и говорили, что никто больше не будет следить за шахматными партиями. Но на сегодняшний день, эта игра популярна как никогда. При этом никто не станет смотреть как два ИИ играют в шахматы.
«Людям интересно то, что делают другие люди, мы очень сосредоточены друг на друге. Поэтому я считаю, что человечество продолжит делать все то, что делает, но при этом будет использовать более мощные инструменты», — предположил Альтман.
Бурное развитие ИИ стало причиной опасений о том, что если возможности этого инструмента во многом превосходят человеческие, то вскоре он заменит нас практически во всем. Но глава Open AI не думает, что в ближайшем будущем стоит опасаться подобного развития событий.
Он считает, что человечество не останется без работы, скорее изменится ее суть. «Моя работа заключается в том, чтобы решать, что делать и руководить людьми, чтобы претворить эти планы в жизнь. И, я думаю, в будущем каждый из нас будет делать примерно то же самое, — сказал он. — Мы будем действовать более абстрагированно».
Такие представители индустрии как Илон Маск и Билл Гейтс крайне озабочены тем, что ИИ может оказаться грозным оружием. «Действительно, это очень мощная технология и мы не можем с уверенностью предсказать, что произойдет в будущем, — сказал Альтман. — То направление, в котором работает наша компания, по нашему мнению, не представляет опасности. Мы предоставили технологию широкому кругу пользователей, чтобы дать возможность обсудить ее, выяснить, какие законодательные и другие барьеры понадобятся для контроля над ней».
«Большой вопрос заключается в том, какие ценности лежат в основе ИИ, какие запросы он должен отклонять, и как его работа должна меняться в зависимости от того, в какой стране находится пользователь. И, видя то, как эта технология может улучшить нашу жизнь, мы все вместе должны подумать над тем, как сделать ее безопасной. Ведь то, что возможно в одних странах, совершенно неприемлемо в других. Поэтому мне импонирует позиция людей, озабоченных вопросами безопасности. Такая озабоченность есть и у нас», — добавил он.
Что касается громкого увольнения из OpenAI и того, какой урок Альтман извлек из этого события, он сказал: «Чем ближе мы подходим к созданию по-настоящему мощного ИИ, тем большее давление мы испытываем. Но так и должно быть. Ставки очень высоки. И чем дальше, тем больше весь мир должен думать о том, каковы могут быть последствия и что может пойти не так. Это очень важно. Но главное, что показала та ситуация, это то, насколько у меня сильная команда. Люди, которых я нанял и обучил, смогут справиться без меня. Это очень приятное чувство».
Ранее в OpenAI заявили, что GPT-4 обеспечивает «в лучшем случае небольшое повышение» возможностей создания биологического оружия. Но компания предупредила, что будущие модели могут быть более опасными. Их знания способны помочь злоумышленникам создать биологическое и химическое оружие, а также спланировать атаку.