Коллеги, Добрый день. Меня зовут Екатерина Гринько, я представляю университет ИТМО, заканчиваю магистратуру по научной коммуникации. Данный доклад был написан совместно с ChatGPT и DeepSeek. Тема была разработана совместно с двумя нейросетями: диалог как иллюзия коммуникации c ИИ сквозь призму теории интернациональности. Было много различных вариантов, область моих интересов это коммуникация с ИИ как новый вид межличностных коммуникаций.
Сколько вообще нужно философов знать, чтобы рассмотреть осмысленное общение ИИ с людьми? Конечно, я не знаю, но попробовала начать с наших известных людей это Гуссерль,Сёрл и Витгенштейн, чтобы подобраться потихонечку к этому вопросу. Итераций было около 5-6 раз на структуру, каждый подпункт, потому что мне не нравилось. Там было много воды и в итоге сошлись на следующей структуре: Гуссерль и понятие интенциональности. Серль - китайской комнаты и Витгенштейна о значении слова в употребление и рассмотрение его диалога как иллюзии. Как мы к этому подошли.
Если говорить об Эдмунде Гуссерле, поскольку он говорил, что всякое сознание есть сознание о чем-то, то LLM работает как алгоритм, и хоть и мы используем понятие “интеллекта”, в LLM работают системы весов, то есть осознания нет. Гуссерлевская концепция позволяет сделать вывод: если у сущности нет сознания, у нее нет и интенциональности, а значит, нет и подлинного понимания языка в классическом смысле. Это наш первый крючок, который ставит под сомнение возможность полноценного диалога между человеком и машиной.
Потом предлагаю порассуждать с нашим любимым Джоном Серлем, ныне живущим философом, автором известного эксперимента с китайской комнатой, проведенного в 80 годах. Он сказал как то раз, что, если система успешна в ответах и оперирует языковыми знаками,то она не обязательно их понимает. Также Серл разделил ИИ на сильный и слабый искусственный интеллект. На текущий момент, мы сейчас говорим именно о слабом ИИ. Сильный же ИИ, равен нашему человеческому интеллекту и даже уже есть ГОСТированное понятие на территории РФ и можно посмотреть также описание в кодексе этики в сфере ИИ в РФ.
Возвращаемся в значение слова ещё немножко уходим назад к Людвигу Витгенштейну, который отвергает традиционную концепцию смысла как соответствия между словом и объектом и вводит идею "языковых игр", согласно которой значение слова определяется его употреблением в конкретном контексте. Как раз в теории языковых игр, человек очень тонко чувствует контекст. Например ключ у нас может быть как: загадка, ключ, гаечный ключ как источник и все все все зависит от контекста. Здесь как раз интересный момент был в написании тезисов, когда ИИ предложило некорректный вариант.
При подборе слов ИИ может создавать эффект галлюцинаций: нейросеть додумывает за пользователя и часто не способна отказать в ответе на запрос. В результате пользователю приходится самому говорить или писать: "нет, это неправильный ответ". Такие ошибки часто возникают из-за отсутствия полного контекста, что приводит к генерации несуществующих цитат философов, ссылок и статей, которые необходимо перепроверять. В тексте тезисов, когда был приведён пример от ИИ, мне также пришлось внести свой собственный. Пример, предложенный ИИ, касался “банка”, что, возможно, вызвано разницей в языках и привело к неоднозначности примера. Хотя структура доклада была ИИ понята, он всё же прогаллюцинировал, создавая ошибочные ассоциации.
Переходим далее от контекста к вопросу: почему же мы всё-таки испытываем эту иллюзию диалога? Уже неоднократно говорилось о эффекте ELIZA. Безусловно, это был прорыв, поскольку данная программа была выпущена в 1966 году. То есть можно только думать, что эту штучка сделала, когда в принципе человек не работал так плотно с технологией, а программа, уже имитировала психотерапевта, перефразируя пользователя и задавая уточняющие вопросы. Я проверяла ELIZA в субботу и она работает до сих пор. Вот так она выглядит. Конечно, это достаточно примитивно по сравнению с текущим ИИ, но и всё таки именно она дала старт такому плотному взаимодействию и диалогу, хотя лучше она все таки работает с английским языком.
Помимо эффекта ELIZA, есть феномен парейдолии, когда мы видим грустные лица в перчиках, наделяем эмоциями неодушевленные предметы или видим лица на Луне и так далее. Также антропоморфизация, которую мы уже затрагивали. В отношении ИИ это может привести к следующему: мы воспринимаем осмысленный текст как доказательство наличия осмысленного мышления. Если ИИ поддерживает контекст беседы, мы считаем, что он "помнит" и "понимает" нас. Чем больше модель напоминает человека в диалоге, тем больше мы склонны верить в её разумность. Этот механизм объясняет, почему даже зная, что языковая модель лишь предсказывает вероятные слова, многие пользователи все равно говорят о "разговоре" с ней, а не о простом выводе текста по алгоритму.
Конечно же, дискуссия о возможности создания ИИ с "сильной интенциональностью" остается открытой. Некоторые философы, такие как Дэвид Чалмерс, предполагают, что развитие технологий искусственного сознания может привести к появлению систем, способных к настоящей интенциональности. Однако, для этого потребуется не только совершенствование алгоритмов, но и решение фундаментальных вопросов о природе сознания и его связи с физическими процессами. Таким образом, современные языковые модели не обладают интенциональностью в классическом смысле, но их способность к адаптации и прогнозированию позволяет говорить о "слабой интенциональности". Однако это не отменяет того факта, что их "понимание" остается иллюзорным, основанным на статистических закономерностях, а не на осознанном доступе к смыслам.
Подводя итог, мы понимаем, что современные LLM не обладают интенциональностью в классическом смысле, но их способность к быстрой адаптации и прогнозированию в контексте беседы с ними позволяет говорить о "слабой интенциональности" и конечно остается открытым вопрос о возможности настоящего диалога с ИИ, Что именно отличает человеческое общение от взаимодействия с ИИ и можно описать этот вид взаимодействия? Но это уже другой вопрос, близкий к моей магистерской работе «Коммуникационное взаимодействие человека и искусственного интеллекта как вид межличностной коммуникации» итоги будут готовы в начале июня, поэтому если будет интересно пишите. Я провожу опрос как вне, так и внутри университета ИТМО, интервью с разработчиками, с преподавателями, со студентами. Если интересно, можете прийти, поучаствовать, так сказать стать волонтерами гражданской науки, помочь этому исследованию. Ссылка также есть в комментариях в группе (https://t.me/digital_philosophy_ru).
И теперь вернемся тексту, к той рефлексии, которая была. Корректировка была больше по смыслу, что говорила Мария Гусева предыдущем докладе. Хочется всё-таки логического построения, схожего с человеческим. На данный момент ИИ помог с написанием структуры доклада и предложил название, однако при использовании примера с ключом он привёл слово "банк". Почему это произошло, неизвестно, возможно, из-за особенностей перевода с русского языка. Я объяснила ИИ, что для примера лучше использовать слово "ключ", и он прекрасно расписал пример с этим словом.
Промты были на русском языке. Наиболее удачным оказался вариант с заданной ролью, что подтверждает эффективность отработанных промтов, которые отлично подходят для этой задачи:
ты учёный, философ с двадцатилетним стажем. Напиши мне статью там то там то, и называешь журналы, которые тебе нравятся по стилистике;
критикуй и будь строже.
Смотрела логику рассуждений. да сейчас есть функция глубокого мышления, смотрела когда был код, когда тоже было интересно, что он пропускает или что он добавляет. Помогало в работе.
Рефлексия над процессом:
- считаю его быстрым инструментом, который действительно очень классно помогает быстрее разгонять мысль.
- Создает такую как бы иллюзию научного руководителя, но больше похожего на соседа, которого нужно проверить. Поэтому научный руководитель это всё-таки специалист.
- Немножко бывает, затягивает процесс написания, ИИ уходит куда-то не туда. Но при этом же это и плюс стоит такой опыт работы в паре.
Выводы и перспективы.
Я считаю, что важно указывать технологию, так как это придаёт тексту больше структуры. ИИ отлично справляется с этим, и я хотела бы писать проще, используя двоеточие и тире. Однако я заметила, что в нашей программе почти все названия докладов одинаковые с двоеточиями и тире — 5 из 10. Теперь я уже не хочу использовать их. ИИ предлагает полезные теории, которые я могла забыть или не рассмотреть, и в итоге я оставила темы, которые мне близки и знакомы. Мы писали тезисы как напарники — ИИ действительно стал таким партнёром.
.