Материалы конференции "Философские аспекты языковых моделей искусственного интеллекта". Лаборатория цифровой философии, 2025
Для начала хочется добавить такую ремарочку, что когда мы говорим что якобы именно сознание человека является эталоном, это все-таки в первую очередь нас толкает на проблему того, что есть сознание. Это связано с позицией, согласно которой человеческое сознание не является эталоном, и это вопрос многовариатности носителя сознания. Я не обладаю конечным мнением на сей счет. Так, вопрос о сознании животных – вопрос дискуссионный, и я сама каждый день меняю свое мнение по этому вопросу. Да, все мы с вами знаем, что в декабре было в апреле этого года была подписана в Нью-Йорке декларация о сознании животных. То есть мы давно уже отошли от того, что только человек может феноменальным сознанием, сводимым в квалиа, обладать. Но все мы также знаем про проблему передачи квалиа третьим лицам: есть ненулевая вероятность, что вы все философские зомби, кроме меня самой. Поэтому вопрос о том, может ли обладать искусственная система, я не буду употреблять понятие искусственного интеллекта в своем предложении, а именно искусственная система обладает квалитативностью связан с проблемой многовариантности сознания. Это вопрос не столько по соотношению именно к человеческому сознанию сколько вообще к проблеме воспроизведения сознания в системах отличных от человека, а они уже существуют. Насколько я знаю, согласно декларации, там даже крабы обладают сознанием, а крабы по своему строению максимально отличны. И есть ряд работ, я указывала их в своей диссертации, как у крабов ищут квалиа боли, к примеру. Ни у кого из крабов так квалиа не нашли, но проблема так и не решена, и те, кто хотят найти, они их находят. Теперь возвращаемся уже к моему докладу. Изначально я просила у YandexGPT 5 дать определение квалиа. Прежде, чем о чем-то говорить, нужно понять, о чем мы говорим. Мы знаем, что есть понятие чувственных данных, которое отличное от понятия квалиа и и часто их путают. Есть понятие ощущения, также отличное от квалиа. В принципе, самое главное, что было для меня, он сказал: что это обозначение субъективных аспектов чувственного восприятия и, конечно же, лучше, чтобы он использовал понятие характеристика, этого восприятия, или что-то еще, но из этой формулировки было понятно, что мы говорим .
об одном и том же. Достаточно спорным было то, что он говорил, что в психологии это понятие используется, потому что, как только я касаюсь диалога с психологами, как правило, приходится лишний раз прояснять термин квалиа. Следующий вопрос у меня был такой, знаете, с подвохом, я пыталась его обмануть, я его спросила об обладателях квалиа. Целью этого вопроса было как раз таки узнать, подкинет ли он сам себя как потенциального обладателя. То есть будет он говорить только о человеке все-таки. В итоге он ответил то, что я от него и ожидала услышать: люди обладают квалиа, а в искусственном системе, возможно, они там могут возникнуть. Затем я продолжаю с ним диалог, спрашиваю: “ ты указал, что искусственный интеллект может быть указан как носитель квалиа, так ли это?”. Но он сказал довольно банальные вещи для студента философского факультета и, в принципе, всех, кто интересуется темой, возможно: “возможно и да, и нет это философский вопрос”. Далее я его спросила, как он полагает, в будущем будет ли решен вопрос квалиа, если мы увеличим производственные мощи, то есть, если мы сделаем суперкомпьютеры, если мы сделаем квантовые компьютеры и прочее? Если эти мощности достигнут определенного высокого значения, возможны квалиа в нем? То, что он мне ответил, опять-таки то же самое: “возможно будет”. И тут мы касаемся частой проблемы бесед с языковыми моделями: если ты не специалист, то ответ кажется действительно чем-то переоткрывающим, но когда ты разбираешься в теме, то ты упираешься в эту стену незнания, ты сам дошел до непознанного, и воображения у ИИ не хватает, если вообще уместно говорить о его воображении. Затем я попросила его придумать, как мы можем получить квалиа в других системах. Он, опять-таки, про нейронные системы стал мне перечислять. А вот что казалось мне интересно, так это интеграция с биологическими системами, некие гибридные системы или различные живые компьютеры. Следующий вопрос: сможем ли мы преодолеть разрыв в объяснении? Одна из проблем квалиа может быть обозначена как проблема перевода. А как вообще мы поймем, как мы сможем диагностировать то, что компьютер или искусственная система стала обладать квалиа? Да, я сейчас студентов прошу: докажите мне, что этот стол не мыслит, ведь то, что он вам не отвечает ничего не докажет. Может, у него просто настроения нет с вами беседовать. Так же и здесь, да, у нас нет... Мы до сих пор не можем до конца понять, есть ли квалиа у моего соседа, краба или у кого-то ещё. Однако проблема субстанции также входит в общий контекст. Мне задали вопрос: сможем ли мы когда-нибудь преодолеть эти сложности? Он ответил, что для этого необходимы междисциплинарные исследования. Я как активная сторонница такого подхода считаю, что без диалога между науками нам не обойтись. Но почему-то этот диалог не складывается: физики, биологи и лингвисты не стремятся взаимодействовать друг с другом. В завершение я спросила его мнение о панпсихизме, надеясь, что это польстит ему. Он отметил, что панпсихизм имеет свои плюсы: он решает ряд проблем, связанных с сознанием и квалиа, распространяя ментальные свойства на всю материальную субстанцию мира. Однако недостатком является отсутствие возможности фиксации и доказательства этих свойств, что общеизвестно. Вывод из диалога: его рассуждения не выходят за рамки классического обзора проблемы квалиа — будь то у человека, животного или искусственного интеллекта. Хотя требовалось уложиться в 10 тысяч знаков и включить интересные находки,
результат оказался не более чем компиляцией учебников или статей из интернета, без оригинального вклада. Я в целом скептически отношусь к этой системе. Многие восхищаются ею, отмечая, что она полезна для знакомства с базовыми концепциями — например, с этикой, о которой она действительно много пишет (хотя я эту часть удалила). Однако, насколько я знаю, у Яндекса действует крайне строгая политика цензуры, включая этический кодекс. Порой это доходит до абсурда: в ходе обсуждения система отказывалась отвечать на вопросы, считая их «небезопасными». Например, мне нужно было проанализировать статистику по убийствам, но она отказалась предоставить данные. Почти каждый мой вопрос об искусственном интеллекте сопровождался этическими комментариями — о безработице, социальных рисках и т.д. Создаётся впечатление, что за шаблонными рассуждениями о морали теряется суть запроса. Я работала на русском языке, взаимодействуя с ИИ. Из пожеланий, связанных с поступлением, добавила только стилистическую правку — без загрузки дополнительных материалов.Проблема языка кажется мне особенно важной. Было бы идеально, если бы мы могли передавать ощущения напрямую, как в сериале «Черное зеркало»: например, подключить нейроинтерфейс и позволить другому человеку почувствовать мою боль без словесных объяснений. Это направление я бы развивала. Почти весь финальный текст, за исключением вопросов, был сгенерирован искусственным интеллектом. Я лишь адаптировала стиль. Если бы мне предложили использовать ИИ для написания научных статей, я согласилась бы, но только для редактирования уже существующих работ (например, для оптимизации под антиплагиат). Пока мои попытки создавать статьи с помощью ИИ не были успешными. Причины неудач: в философии критически важно новаторство — умение увидеть то, что еще не исследовано. ИИ пока не способен генерировать принципиально новые идеи, ограничиваясь анализом существующих данных. Есть и этическая проблема: студенты массово используют ИИ, что ставит под вопрос оригинальность их работ. Когда мне надоедает слушать однотипные ответы студентов, я предлагаю им написать стихотворение в стиле эпохи Возрождения — здесь и сейчас. Обычно они обращаются к чат-ботам, но я настаиваю, чтобы работали самостоятельно. Сегодня у нас мало времени, поэтому перейдем к вопросам из чата. Многие из них касаются сложных проблем сознания, чувственного опыта и искусственного интеллекта (ИИ). Продолжая тему предыдущего доклада: вопрос о наличии у ИИ сознания, субъективности или квалиа остаётся открытым. В философии сознания квалиа играют ключевую роль, но их применение к ИИ проблематично. Квалиа тесно связаны с чувственным опытом, который у машины отсутствует. А что такое чувственный опыт применительно к искусственному интеллекту, ну, например, к существующим сейчас моделям, довольно сложно сформулировать. Ведь является ли чувственным опытом корпус обучения, на котором система училась и в котором она основывает свои знания? Является ли чувственным опытом само общение с собеседником в интеллектуальном виде? . Мы можем понимать его различные квазисенсорные системы, компьютерное видение в 2012 году был прорывом. Недавно я читала о проблеме субъектности искусственного интеллекта в контексте книги «Сложная слепота» (автор ссылается на философа Томаса Митцингера). Эта научно-фантастическая работа поднимает важный вопрос: можно ли
считать сознанием то, что «обладает вами»? Сегодня я склоняюсь к мысли, что сознание — это не статичная сущность, а процесс, который может эволюционировать. Завтра моя позиция может измениться, но сейчас, в семь вечера, я готова отстаивать именно эту идею. Каждый раз, говоря о «сознании» и «квалиа» в одном контексте, я задаюсь вопросом: в какой теории сознания мы рассматриваем проблему? Если сводить сознание к «трудной проблеме» (Дэвид Чалмерс) — то есть к субъективному опыту — то даже животные могут обладать его зачатками. Ключевая путаница: наличие квалиа не равно сознанию в человеческом понимании. Например, ИИ может имитировать эмпатию, опираясь на данные, но не переживать её. Что касается ограниченности языковой модели. Но наше обучение происходит именно в формате чувственного опыта, то есть мы получаем через наши сенсоры то, что мы называем чувственным опытом. А обучение искусственного интеллекта происходит кардинально иначе. Еще один интересный подход, мне кажется перспективный рассматривать квалиа не как субъективный аспект обязательного чувственного опыта, а как субъективный аспект всякого переживания, то есть какой-то такой план субъективности. Некоторые люди свои мысли слышат как внутренний голос какой-то, проговаривает между словами, некоторые мыслят какими-то визуальными образами, но есть люди со фантазией, которые мыслят не словами не визуальными образами, а как бы как один знакомый со фантазией рассказывал, вот как нейросеть мыслит потоком токенов. То есть какие-то довербальные штуки, происходящие в собственном мозгу человека, который он осознает может переживать, то есть получает информацию об их существовании как опыт, но тем не менее они не являются, не коррелируют сразу с каким-то чувственным опытом, который получает внешний мозг. То же самое сон. Я недавно во сне ела пельмени и проснулась от того, что я ощущала вкус кислоты в рту. Это не обязательно должно быть источником квалиа. У меня в диссертации тоже я рассматриваю интересные эксперименты с галлюцинациями, слуховыми галлюцинациями у глухих. Это тоже интересная тема отдельной дискуссии. Отвечая на поступивший вопрос об ограничении материала обучения для ИИ, рассужу так. Он ограничен той информацией к которой у нее есть доступ, да, это самый главный аргумент критический, да, то, что вся информация создана человеком ему передается. Но я сама же отвечаю сейчас с критикой этого тезиса, что мы люди в принципе действуем точно так же. Мы также берем информацию созданную другими людьми потому что информация, она людьми создается. Просто вопрос в том, что там она с конкретными людьми, там можно, как говорится найти источника автора, и вот символьную форму всему этому придать, а мы не рефлексируем на эту тему в обыденной жизни, и мы точно так же ограничены, вот, мы точно так же ограничены книгами, учебниками, языком, которым я вам научила, да, и даже вербализация квалиев вам не ограничена, меня, в том числе, научили на учения. Вот, это к тому, что этот аргумент о том что искусственный интеллект ограничен только из-за того, что у него искусственно подается объем информации, ну, и даже доступ к интернету, это все равно только то, что было, собственно, создано человеком. Но мы-то так же ограничены тем, что мы живем. Это теория символьных форм уже давно об этом сказала, да, то что мы живем в двойном мире символов, вот, а если мы будем брать то, что у нас есть доступ к естественному миру, то я вообще агностик, считаю что у нас доступ к этим нет: поэтому подлинность нашего материала для обучения схожа с той, что у языковых моделей.