Алгоритмизированные операции ChatGPT. Что не так с текстами искусственного интеллекта?

Специалист из Института языкознания РАН и ПСТГУ, доктор филологических наук, Андрей Вдовиченко создал сказку с помощью ChatGPT. На ее примере он объяснил, почему ИИ не может быть подлинным генератором смыслов.

Ученый доказывает, что тексты вторичны по отношению к тому, что мы хотим сказать. Письменный язык, грамматика — всего лишь устоявшиеся правила, с помощью которых мы хотим выразиться. Даже эти правила не всегда могут передать, что мы хотим сказать. Правильно построенное предложение — не гарантия адекватного выражения мыслей даже естественного интеллекта.

Ключевым посылом к коммуникации, передачи наших чувств, служат наши эмоции, впечатления, знания, опыт. Тексты лишь кодируют ту информацию, которую мы передаем, а алгоритмы ИИ просто используют уже устоявшиеся коды.

Такие сложные коммуникативные тактики, как ирония, гипербола, сарказм, в ИИ не могут иметь места ввиду того, что для их порождения и распознавания необходимо сущностное разделение коммуникативного действия и когнитивного состояния, отсутствующее в ИИ.

  • Андрей Вдовиченко

Сгенерированная ученым с помощью ChatGPT сказка повествует о листке, который падает с дерева, растворяется в природе, отдав свою жизнь на удобрение почвы, и с пониманием растворяется во благо природы.

Отмечается, что у этой сказки нет автора. Некого винить в изложенной философии. Созданная сказка – обобщение собранных текстовых кодов, за которыми нет осознания.

Главный вывод, сделанный Андрей Вдовиченко:

ИИ может стать действенным помощником, эффективным инструментом, удобным подсобным средством. Однако он сам никогда не станет полноценным смыслообразующим агентом.

Статья опубликована в журнале «Вестник Православного Свято-Тихоновского гуманитарного университета. Серия 3: Филология».

Фото: Freepik

Создано при поддержке Минобрнауки РФ в рамках Десятилетия науки и технологий (ДНТ), объявленного Указом Президента Российской Федерации от 25 апреля 2022 г. № 231.