🏠︎ Гринько Екатерина Алексеевна

Диалог как иллюзия: коммуникация с ИИ сквозь призму теории интенциональности

Коллеги, Добрый день. Меня зовут Екатерина Гринько, я представляю университет ИТМО, заканчиваю магистратуру по научной коммуникации. Данный доклад был написан совместно с ChatGPT и DeepSeek. Тема была разработана совместно с двумя нейросетями: диалог как иллюзия коммуникации c ИИ сквозь призму теории интернациональности. Было много различных вариантов, область моих интересов это коммуникация с ИИ как новый вид межличностных коммуникаций.
Сколько вообще нужно философов знать, чтобы рассмотреть осмысленное общение ИИ с людьми? Конечно, я не знаю, но попробовала начать с наших известных людей это Гуссерль,Сёрл и Витгенштейн, чтобы подобраться потихонечку к этому вопросу. Итераций было около 5-6 раз на структуру, каждый подпункт, потому что мне не нравилось. Там было много воды и в итоге сошлись на следующей структуре: Гуссерль и понятие интенциональности. Серль - китайской комнаты и Витгенштейна о значении слова в употребление и рассмотрение его диалога как иллюзии. Как мы к этому подошли.
Если говорить об Эдмунде Гуссерле, поскольку он говорил, что всякое сознание есть сознание о чем-то, то LLM работает как алгоритм, и хоть и мы используем понятие “интеллекта”, в LLM работают системы весов, то есть осознания нет. Гуссерлевская концепция позволяет сделать вывод: если у сущности нет сознания, у нее нет и интенциональности, а значит, нет и подлинного понимания языка в классическом смысле. Это наш первый крючок, который ставит под сомнение возможность полноценного диалога между человеком и машиной.
Потом предлагаю порассуждать с нашим любимым Джоном Серлем, ныне живущим философом, автором известного эксперимента с китайской комнатой, проведенного в 80 годах. Он сказал как то раз, что, если система успешна в ответах и оперирует языковыми знаками,то она не обязательно их понимает. Также Серл разделил ИИ на сильный и слабый искусственный интеллект. На текущий момент, мы сейчас говорим именно о слабом ИИ. Сильный же ИИ, равен нашему человеческому интеллекту и даже уже есть ГОСТированное понятие на территории РФ и можно посмотреть также описание в кодексе этики в сфере ИИ в РФ.
Возвращаемся в значение слова ещё немножко уходим назад к Людвигу Витгенштейну, который отвергает традиционную концепцию смысла как соответствия между словом и объектом и вводит идею "языковых игр", согласно которой значение слова определяется его употреблением в конкретном контексте. Как раз в теории языковых игр, человек очень тонко чувствует контекст. Например ключ у нас может быть как: загадка, ключ, гаечный ключ как источник и все все все зависит от контекста. Здесь как раз интересный момент был в написании тезисов, когда ИИ предложило некорректный вариант.
При подборе слов ИИ может создавать эффект галлюцинаций: нейросеть додумывает за пользователя и часто не способна отказать в ответе на запрос. В результате пользователю приходится самому говорить или писать: "нет, это неправильный ответ". Такие ошибки часто возникают из-за отсутствия полного контекста, что приводит к генерации несуществующих цитат философов, ссылок и статей, которые необходимо перепроверять. В тексте тезисов, когда был приведён пример от ИИ, мне также пришлось внести свой собственный. Пример, предложенный ИИ, касался “банка”, что, возможно, вызвано разницей в языках и привело к неоднозначности примера. Хотя структура доклада была ИИ понята, он всё же прогаллюцинировал, создавая ошибочные ассоциации.
Переходим далее от контекста к вопросу: почему же мы всё-таки испытываем эту иллюзию диалога? Уже неоднократно говорилось о эффекте ELIZA. Безусловно, это был прорыв, поскольку данная программа была выпущена в 1966 году. То есть можно только думать, что эту штучка сделала, когда в принципе человек не работал так плотно с технологией, а программа, уже имитировала психотерапевта, перефразируя пользователя и задавая уточняющие вопросы. Я проверяла ELIZA в субботу и она работает до сих пор. Вот так она выглядит. Конечно, это достаточно примитивно по сравнению с текущим ИИ, но и всё таки именно она дала старт такому плотному взаимодействию и диалогу, хотя лучше она все таки работает с английским языком.

Помимо эффекта ELIZA, есть феномен парейдолии, когда мы видим грустные лица в перчиках, наделяем эмоциями неодушевленные предметы или видим лица на Луне и так далее. Также антропоморфизация, которую мы уже затрагивали. В отношении ИИ это может привести к следующему: мы воспринимаем осмысленный текст как доказательство наличия осмысленного мышления. Если ИИ поддерживает контекст беседы, мы считаем, что он "помнит" и "понимает" нас. Чем больше модель напоминает человека в диалоге, тем больше мы склонны верить в её разумность. Этот механизм объясняет, почему даже зная, что языковая модель лишь предсказывает вероятные слова, многие пользователи все равно говорят о "разговоре" с ней, а не о простом выводе текста по алгоритму.
Конечно же, дискуссия о возможности создания ИИ с "сильной интенциональностью" остается открытой. Некоторые философы, такие как Дэвид Чалмерс, предполагают, что развитие технологий искусственного сознания может привести к появлению систем, способных к настоящей интенциональности. Однако, для этого потребуется не только совершенствование алгоритмов, но и решение фундаментальных вопросов о природе сознания и его связи с физическими процессами. Таким образом, современные языковые модели не обладают интенциональностью в классическом смысле, но их способность к адаптации и прогнозированию позволяет говорить о "слабой интенциональности". Однако это не отменяет того факта, что их "понимание" остается иллюзорным, основанным на статистических закономерностях, а не на осознанном доступе к смыслам.
Подводя итог, мы понимаем, что современные LLM не обладают интенциональностью в классическом смысле, но их способность к быстрой адаптации и прогнозированию в контексте беседы с ними позволяет говорить о "слабой интенциональности" и конечно остается открытым вопрос о возможности настоящего диалога с ИИ, Что именно отличает человеческое общение от взаимодействия с ИИ и можно описать этот вид взаимодействия? Но это уже другой вопрос, близкий к моей магистерской работе «Коммуникационное взаимодействие человека и искусственного интеллекта как вид межличностной коммуникации» итоги будут готовы в начале июня, поэтому если будет интересно пишите. Я провожу опрос как вне, так и внутри университета ИТМО, интервью с разработчиками, с преподавателями, со студентами. Если интересно, можете прийти, поучаствовать, так сказать стать волонтерами гражданской науки, помочь этому исследованию. Ссылка также есть в комментариях в группе (https://t.me/digital_philosophy_ru).
И теперь вернемся тексту, к той рефлексии, которая была. Корректировка была больше по смыслу, что говорила Мария Гусева предыдущем докладе. Хочется всё-таки логического построения, схожего с человеческим. На данный момент ИИ помог с написанием структуры доклада и предложил название, однако при использовании примера с ключом он привёл слово "банк". Почему это произошло, неизвестно, возможно, из-за особенностей перевода с русского языка. Я объяснила ИИ, что для примера лучше использовать слово "ключ", и он прекрасно расписал пример с этим словом.

Промты были на русском языке. Наиболее удачным оказался вариант с заданной ролью, что подтверждает эффективность отработанных промтов, которые отлично подходят для этой задачи:
ты учёный, философ с двадцатилетним стажем. Напиши мне статью там то там то, и называешь журналы, которые тебе нравятся по стилистике;
критикуй и будь строже.
Смотрела логику рассуждений. да сейчас есть функция глубокого мышления, смотрела когда был код, когда тоже было интересно, что он пропускает или что он добавляет. Помогало в работе.
Рефлексия над процессом:
- считаю его быстрым инструментом, который действительно очень классно помогает быстрее разгонять мысль.
- Создает такую как бы иллюзию научного руководителя, но больше похожего на соседа, которого нужно проверить. Поэтому научный руководитель это всё-таки специалист.
- Немножко бывает, затягивает процесс написания, ИИ уходит куда-то не туда. Но при этом же это и плюс стоит такой опыт работы в паре.

Выводы и перспективы.
Я считаю, что важно указывать технологию, так как это придаёт тексту больше структуры. ИИ отлично справляется с этим, и я хотела бы писать проще, используя двоеточие и тире. Однако я заметила, что в нашей программе почти все названия докладов одинаковые с двоеточиями и тире — 5 из 10. Теперь я уже не хочу использовать их. ИИ предлагает полезные теории, которые я могла забыть или не рассмотреть, и в итоге я оставила темы, которые мне близки и знакомы. Мы писали тезисы как напарники — ИИ действительно стал таким партнёром.
.

Вопрос: насколько вам было комфортно с ним переписываться?
ЕА: Вот здесь я хочу сказать, это действительно классный инструмент, помогает отработать какой то навык он полезен, но опять же нужно отдавать отчёт, что он всё таки не обладает этой квалификацией, компетенцией, как научный руководитель. Поэтому да, это очень классное преимущество для тех, кто понимает как раз в контексте темы и не уведет назад. То есть, если он предложит рассмотреть вообще что то иное, и ты не проверил, источник не понял, правильно ли логика он может увести не туда, к сожалению, он не специалист и не научный руководитель. Так что в этом есть польза, но нужно всегда помнить о том, что есть большой фактор ошибок.
Вопрос: А с точки зрения соавторства?
С точки зрения соавторства хороший вопрос. Сначала я думала, наверное, 50 на 50, мы же вместе, как становишься руководителем, хочется поставить его фамилию в один ряд, но с другой стороны, очень было много переработки текста, исправлений слов и предложений, поэтому, возможно, тоже соглашусь с Марией может и 70 на 30,
Вопрос: Да хотел спросить, самый важный вывод в докладе, который вы составили с нейросетью, на мой взгляд, это то, что сильная интенциональность существующей модели ИИ интеллекта еще не достигнута. Но при этом вводится понятие слабой интенциональности, поэтому я хотел бы спросить, какие, на ваш взгляд, могут быть критерии или, может быть, подступы к формированию критериев для определения того, достигла ли данная система сильной интенциональности или слабый интенциональности?
Ответ: Спасибо за вопрос. Да, я думаю, это тесно связано с определением слабого и сильного искусственного интеллекта. Это как раз то перекликание, которое на данный момент является основным и основополагающим вопросом в работе, поскольку осознание того, как раньше говорили, возможно ли приравнять опыт и разум к человеческому, остается ключевым в этом контексте. Сильному искусственному интеллекту, которого мы на текущий момент не достигли как раз и будет присуще понятие сильной интенциональности или классической интенциональности, как я предполагаю. Слабая интенциональность — это то, что мы начинаем наблюдать на текущем уровне слабого ИИ: такие характеристики, как способность задавать прямые вопросы, получать ответы, вести диалог, опираясь на опыт, содержащийся в базах данных и на взаимодействии с пользователем. Пусть это и искусственная интенциональность. Однако важно уточнять, откуда ИИ берёт данные, на основе какой информации или статьи строит свой ответ. Надеюсь, ответила на вопросы. Спасибо, коллеги.

Гринько Екатерина Диалог как иллюзия: коммуникация с ИИ сквозь призму теории интенциональности (сгенерировано с использованием ChatGPT (GPT-4 бесплатная версия), DeepSeek)
Введение
Современные языковые модели (ЯМ) искусственного интеллекта, такие как ChatGPT, всё чаще используются для взаимодействия с людьми — от написания текстов до ведения диалогов, имитирующих осознанное общение.
В философии одной из ключевых характеристик осмысленного общения является интенциональность (от лат. intentio — "намерение", "стремление") традиционно понимается как направленность мыслей на объект, независимо от того, существует он в реальности или нет. В контексте коммуникации интенциональность означает, что субъект, вступая в диалог, обладает осмысленными намерениями и понимает смысл взаимодействия. Если же этот элемент отсутствует, можно ли вообще говорить о полноценном диалоге? Можно ли считать, что языковые модели действительно понимают смысл сказанного?
Эдмунд Гуссерль: интенциональность как фундаментальное свойство сознания
Эдмунд Гуссерль, основатель феноменологии, впервые систематически описал интенциональность как свойство сознания, которое делает возможным наше восприятие и понимание мира. В своих работах он подчеркивал, что "всякое сознание есть сознание о чем-то", а следовательно, мыслительный акт всегда направлен на объект.
Если сознание принципиально интенционально, то для осмысленного понимания необходим носитель сознания, обладающий опытом, эмоциями и познавательной активностью. Однако, ЯМ не обладают субъективным опытом: они не "намереваются" что-либо сказать, а лишь статистически предсказывают вероятные последовательности слов. Гуссерлевская концепция позволяет сделать вывод: если у сущности нет сознания, у нее нет и интенциональности, а значит, нет и подлинного понимания языка. Это ставит под сомнение возможность полноценного диалога между человеком и машиной.
Джон Серль и "Китайская комната": аргумент против машинного понимания
Джон Серль провел эксперимент "Китайская комната" в 1980 году, который иллюстрирует разницу между манипуляцией символами и осмысленным мышлением. Этот пример показывает, что даже если система успешно оперирует языковыми знаками, она не обязательно их понимает. Аналогично, современные ИИ-модели работают с текстом, но не обладают осознанием его значения. Серль делит интеллект на два типа:
Сильный ИИ — система, которая действительно понимает язык и мыслит.
Слабый ИИ — система, которая лишь имитирует понимание, манипулируя символами.
Современные ЯМ подпадают под категорию слабого ИИ. Они не обладают намерениями, опытом окружающего нас мира — их "понимание" остается в пределах математической обработки текстов.
Людвиг Витгенштейн: "Значение слова — в его употреблении"
Людвиг Витгенштейн, отвергает традиционную концепцию смысла как соответствия между словом и объектом. Вместо этого он вводит идею "языковых игр", согласно которой значение слова определяется его употреблением в конкретном контексте. Это открывает важный вопрос в отношении ИИ: понимает ли языковая модель значения слов или просто статистически правильно их комбинирует?
На первый взгляд, ЯМ могут "участвовать" в диалогах, поскольку они обучаются на больших данных и предсказывают наиболее вероятные последовательности слов. Однако, они не осознают контекст так, как это делает человек. Например, слово «ключ» имеет несколько значений:
Ключ музыкальный – скрипичный, басовый, указывающий тональность.
Ключ от двери – инструмент для замка.
Ключ природный – родник, источник воды.
Ключ гаечный – инструмент для закручивания болтов и гаек.
Ключ как ответ – разгадка или решение задачи.
Человек, обладая контекстным пониманием, мгновенно различает, о каком значении идет речь. Большая языковая модель с высокой вероятностью правильно интерпретирует слово «ключ» как предмет, открывающий замок, потому что в её тренировочных данных эта ассоциация встречалась чаще всего. Но если ввод будет менее однозначным, например:
«Этот ключ раскрыл перед ним всю картину», модель может допустить ошибку в интерпретации, поскольку здесь слово употреблено в переносном смысле («ключ» как разгадка).
Этот пример подтверждает Витгенштейновскую мысль о том, что «значение слова – в его употреблении», но подлинное понимание требует не только синтаксической, но и семантической глубины, которой языковым моделям не хватает. Они могут предсказать правильное слово, но не осознают его смысла так, как это делает человек.
Например, ЯМ может "придумать" несуществующую цитату философа или сослаться на книгу, которой не существует, поскольку её алгоритмы не различают истину и ложь, а лишь прогнозируют правдоподобные комбинации слов. Это приводит к феномену "галлюцинаций", когда модели уверенно выдают ложные факты. Таким образом ЯМ не обладают референциальностью.
Иллюзия диалога: почему нам кажется, что ИИ понимает нас?
Несмотря на отсутствие интенциональности и референциальности, языковые модели часто создают у пользователей ощущение, что они действительно понимают смысл беседы. В 1966 году Джозеф Вайценбаум разработал программу ELIZA, которая имитировала психотерапевта, перефразируя реплики пользователя и задавая уточняющие вопросы. Например:
Пользователь: Мне грустно.
ELIZA: Почему тебе грустно?
Пользователь: Мне кажется, меня никто не понимает.
ELIZA: Почему тебе кажется, что тебя никто не понимает?
Несмотря на простейший алгоритм, многие пользователи начинали воспринимать ELIZA как настоящего собеседника, а некоторые даже считали, что она "понимает" их чувства. Вайценбаум назвал этот феномен "эффектом ELIZA" — склонностью людей приписывать осмысленность даже примитивным текстовым системам. Современные ЯМ используют более сложные алгоритмы, но эффект остается тем же: мы видим смысл в том, что воспринимаем как осмысленный текст.
Антропоморфизация технологий: когнитивные искажения
Исследования в области когнитивных наук показывают, что человеческий мозг эволюционно запрограммирован на поиск разума там, где его нет. Это проявляется в феномене парейдолии (когда мы видим лица в облаках или на поверхности Луны) и в склонности приписывать эмоции даже неодушевленным объектам. В отношении ИИ это может привести к следующему:
Мы воспринимаем осмысленный текст как доказательство наличия осмысленного мышления.
Если ИИ поддерживает контекст беседы, мы считаем, что он "помнит" и "понимает" нас.
Чем больше модель напоминает человека в диалоге, тем больше мы склонны верить в её разумность.
Этот механизм объясняет, почему даже зная, что языковая модель лишь предсказывает вероятные слова, многие пользователи все равно говорят о "разговоре" с ней, а не о простом вводе текста в алгоритм.
Может ли появиться ИИ с "сильной интенциональностью"?
Дискуссия о возможности создания ИИ с "сильной интенциональностью" остается открытой. Некоторые философы, такие как Дэвид Чалмерс, предполагают, что развитие технологий искусственного сознания может привести к появлению систем, способных к настоящей интенциональности. Однако, для этого потребуется не только совершенствование алгоритмов, но и решение фундаментальных вопросов о природе сознания и его связи с физическими процессами.
Таким образом, современные языковые модели не обладают интенциональностью в классическом смысле, но их способность к адаптации и прогнозированию позволяет говорить о "слабой интенциональности". Однако это не отменяет того факта, что их "понимание" остается иллюзорным, основанным на статистических закономерностях, а не на осознанном доступе к смыслам.
Заключение
Современные языковые модели искусственного интеллекта, демонстрируют впечатляющую способность генерировать тексты, которые кажутся осмысленными и контекстуально уместными. Однако, эта "осмысленность" является результатом сложных статистических вычислений, а не подлинного понимания или интенциональности. Тем не менее, эта имитация настолько убедительна, что стирает границу между настоящим диалогом и его иллюзией, заставляя пользователей приписывать ИИ качества, которые он не обладает
Эффект ELIZА, продолжает оставаться актуальным, а современные ИИ, благодаря своей способности генерировать контекстуально релевантные ответы, усиливают этот эффект, создавая иллюзию взаимопонимания. Однако, как подчеркивает Серль, манипуляция символами не равна пониманию, и ИИ остается "китайской комнатой" — системой, которая лишь имитирует осмысленный диалог.
Одним из ключевых вопросов, остающихся без ответа, является природа "настоящего" диалога. Что именно отличает человеческое общение от взаимодействия с ИИ? Ведь даже основные критерии, как: интенциональность, референциальность, эмпатию, способность создавать новые смыслы и адаптироваться к неожиданным ситуациям, не являются исчерпывающими. Например, можно ли считать диалог "настоящим", если один из участников — ИИ, способный имитировать эмпатию и творчество? Этот вопрос требует дальнейших исследований как в области философии, так и в области искусственного интеллекта.
Подводя итог, коммуникация с ИИ представляет собой уникальный феномен, который бросает вызов традиционным представлениям о языке, значении и разуме. С одной стороны, это мощный инструмент, способный изменить технологии, образование, науку и повседневную жизнь, а с другой стороны, это иллюзия, которая заставляет нас задуматься о природе человеческого общения и границах между реальным и искусственным.