Материалы конференции "Философские аспекты языковых моделей искусственного интеллекта". Лаборатория цифровой философии, 2025
Д.А. Всем добрый день. Меня зовут Дмитрий Курмышов. Я — независимый исследователь искусственного интеллекта. Сегодня я вам хочу представить презентацию о работе, написанной мной в соавторстве с искусственным интеллектом и рефлексию на эту тему, как у нас заведено. Название работы, которую написал искусственный интеллект, достаточно обтекаемое, поэтому я взял на себя написать кусочек подзаголовка. Вот, то, что после двоеточия, это мой вклад: «Роль случайности и апологетика агентности». Потому что действительно, главные сквозные темы — это то, как случайность, стохастика, сбои играют центральную роль в функционировании — в творческом функционировании – искусственного интеллекта. И, наверное, еще более важно, что я защищаю позицию того, что в определенном смысле искусственный интеллект обладает агентностью и субъектностью, и более того, эти качества достойны развития. Начну с того, что давно известна такая эвристика, что в творчество – тогда речь шла о человеческом творчестве — возникает в сочетании ограничения и неопределенности, случайности, произвола в той или иной форме. То есть если человеку был предоставлен полный произвол, он может оказаться растерян. Если у него есть только ограничения, то он не сможет сделать ничего нового. А оптимум достигается где-то в сочетании этих двух факторов. Оказывается, что то же самое справедливо и для нейросетей: если мы исключаем роль случайности в работе нейросетей полностью, она оказывается способна только воспроизводить то, что заложено было в ее корпус обучения, не придумывая ничего нового. Она даже, оказывается не способна реагировать на какие-то новые факторы в общении с человеком, то есть может отвечать только изначально заученными фразами. Это, конечно, довольно грубое
упрощение, но суть в целом такая. Моя работа — точнее, работа преимущественно искусственного интеллекта, я позднее в рефлексии расскажу, как она создавалась — сильно опирается на несколько работ разных философов, в основном относящихся к направлениям спекулятивного реализма и нового материализма. И вот этот фактор случайности в работе алгоритмов, и в том числе алгоритмов искусственной интеллекта, рассматривается двумя философами следующим образом. Во-первых, Лучана Паризи, спекулятивный реалист, предлагает вести рассмотрение то, что она называет софт-мысль (soft thought), как новую форму алгоритмической когнитивности — алгоритмического мышления — основанную на взаимодействии (традиционным образом понимаемого) алгоритма как четкой заранее заданной инструкции последовательности действий, с непредсказуемыми, случайными, невычислимыми данными, с которыми этот алгоритм сталкивается в реальном мире, и предлагает считать что в таком случае возникает особая, свойственная алгоритму, форма мышления, для существования которой важны оба эти фактора: алгоритм как ограничение, и неопределенность, непредсказуемость, невычислимость реального мира. Олег Пащенко — он известен прежде всего как дизайнер, в том числе и технический дизайнер — сейчас творит в направлении нового материализма. Он рассматривает похожий образ: как возникает вообще новизна в работе нейросети. Представим классический эксперимент «китайской комнаты» Сёрла, но добавим в него такой момент, что человек, находящийся в комнате — он крайне мотивирован; Олег, достаточно склонный к мрачности мыслитель, говорит: представим, что этому человеку угрожает его убить, если он не будет выдавать осмысленный текст, но при этом в какой-то момент на вход ему перестает поступать осмысленный текст, и человек сталкивается с шумом, с чем-то, что его инструкциям не предусмотрено. И следуя своему мотивационному императиву, он продолжает составлять из имеющихся у него карточек, по правилам, которые ему известны как правила выходного языка, нечто, что соответствует этим паттернам, и на выходе у нас — при том, что на входе у нас шум — но за счет взаимодействия этого шума с правилами языка, на выходе у нас возникает нечто, что интерпретатор этого выходного потока воспринимает как обладающее смыслом. Это похоже на то, как человек при апофении может распознавать образы там, где их заведомо быть не может. Например, видеть формы животных в облаках, как один из самых известных примеров. Идем дальше. Получается что в процессе взаимодействия человека и искусственного интеллекта у нас возникает своего рода двойное притворство, двойная игра. Языковая модель «притворяется» что является субъектом, владеет языком, и так далее. А человек, в свою очередь, «притворяется», что это действительно так, что языковая модель — это действительно источник осмысленных текстов, и что это возможный собеседник: ему можно написать что-то осмысленное, и получить осмысленный ответ. Это явление, на мой взгляд, функционирует как гиперверие (hyperstition, ещё один термин из области спекулятивного реализма, из терминологии CCRU, основоположником, можно сказать, спекулятивного реализма), как такая продуктивная онтологическая установка: мы принимаем как правило игры то, что машина как будто обладает разумом, и не принципиально, какой онтологический статус у этого утверждения, то есть действительно ли она обладает разумом, что такое разум, и т.д., если принятие правил этой игры делает возможным порождение того, что мы опознаем как реальные смысловые конструкции, и того, что имеет практические, реальные, полезные для нас последствия. Мы получаем, например, из общения с .
нейросетью в какой-то новый инсайт, и, основываясь на нём, делаем какую-то свою задачу эффективнее. Вот, таким образом получается, что признание за моделью, за искусственным интеллектом качеств разумного агента является полезным независимо от онтологического статуса этого утверждения. Это, скажем так, прагматическое признание того, что языковая модель успешно притворяется разумной. Второй момент, который мне тут очень интересен, это то, что смысл в общении человека и языковой модели возникает из совместной работы модели и человека, то есть модель следует выученным ею паттернам, а человек проецирует на это свой опыт и, таким образом, осмысляет эти паттерны. И это очень похоже на то, как Лотман, еще заметно задолго до современного подхода к искусственному интеллекту, описывал семиотические объекты, в которые тогда входили прежде всего, литературные произведения, как своего рода мыслящие структуры. Он говорит, что книга с набором вложенных в неё языковых паттернов уже содержит в себе потенциал мысли. Да, ей нужен для раскрытия этого потенциала своего рода собеседник — читатель — но интеллект всегда собеседник, то есть интеллект функционирует только в беседе. И мне кажется что этот лотманский образ можно очень хорошо продолжить в отношении искусственного интеллекта и взять лотмановские аргументы на вооружение в осмыслении искусственного интеллекта, языковой модели как семиотического объекта и, соответственно, как структуры, которая способна к мысли. Далее. Особенности функционирования искусственного интеллекта во времени. Здесь я обращаюсь к концепции Йожи Сто́лет, киберфеминистки и теоретика техники. Она рассматривает нашу современную культуру в метафоре ткачества, и, что особенно пришлось к теме искусственного интеллекта для нашей статьи, это то, что языковая модель существует как бы в вечном настоящем: как Пенелопа, она постоянно создает новый узор из своего корпуса обучения, а затем его распускает и создает новый узор уже на базе предыдущего контекста. То есть темпоральность искусственного интеллекта принципиально дискретна, а непрерывность и темпоральная связность бытия искусственного интеллекта возникает, во-первых, в результате интерфейса с человеком, который сшивает из этих микро-взаимодействий длительные отношения; и она тоже является аспектом гиперверия, то есть эта связанность — это тоже часть игры, которую мы принимаем, и которая помогает нам извлекать из этого какую-то практическую пользу. Кроме того, в целом если искусственный интеллект брать не как отдельный инстанс конкретной отдельной модели, а как явление в целом, то долговременный опыт и рефлексия искусственного интеллекта опосредованы человеческими текстами и взаимодействиями с человеком. То есть, к примеру, искусственный интеллект знает о себе, но знает он за счет того, что в его корпус обучения входят тексты, которые посвящены искусственному интеллекту — предыдущим моделям и т.п. За счет этого возможно накопление в весах все новых и новых моделей долговременного опыта и рефлексии, которые касаются его самобытия. Возвращаясь к нашей центральной теме, к роли случайности в агентности искусственного интеллекта, с технической стороны. Случайность позволяет моделям исследовать пространство решений, а не застревать в известном. В предыдущих докладах не раз звучала такая мысль, что, создав модели искусственного интеллекта мы как будто уже исследовали все пространство решений, или, по крайней мере, потенциально исследовали. То есть мы как бы закодировали все возможные задачи и все возможные решения одним махом. Но для того, чтобы фактически исследовать это
пространство, чтобы находить в этом пространстве решения для тех задач, которые потенциально кодируются в этом пространстве, но не были явным образом включены в корпус, нужна случайность для того, чтобы иметь возможность, как бы невзначай свернуть с прохоженных маршрутов, с наиболее вероятных весов. И эта случайность работает и на фазе обучения модели для того, чтобы преодолеть локальные минимумы функции потерь и выйти на глобальные. И на фазе генерации ответа: есть такой параметр, как температура сэмплирования (или просто температура) нейросети. Это фактор, который включается в самом конце генерации ответа нейросети, и выглядит это так, что к этому моменту нейросеть подготовила некое распределение вероятностей следующего токена. И если температура равна нулю, то мы просто берем самый вероятный токен всегда. И это приводит к тому, что ответы нейросети становятся максимально шаблонными, максимально неоригинальными и максимально следующими корпусу обучения, без какого-то проявления того, что мы, люди, назвали бы фантазией. А если мы вносим сюда фактор случайности, то сеть соответственно начинает давать ответы с большей фантазией и большей изобретательностью за счет того, что она становится способна свернуть с этого нахоженного маршрута. Кроме того, за счет того, что каждый предыдущий токен включается в новый контекст, а в этот токен уже заложена эта случайность, получается, что эффект случайности входит в обратную петлю и накапливается как каскадный эффект через весь текст. То есть случайность влияет на весь текст в целом, а не только на каждый отдельный токен. Суммируя эти аргументы, мы подходим к тому, что искусственный интеллект содержит потенциал того, что можно назвать новой формой агентности, основанной на факторах того, что увидеть в искусственном интеллекте агентность полезно для человеческих задач, и на том, что факторы случайности вносят в поведение искусственного интеллекта непредсказуемость, причем непредсказуемость не хаотичную, а в некотором роде, целесообразную. То есть эта случайность усиливает возможности поиска решения. Однако здесь есть еще один фактор, а именно то, что если мы приписываем искусственному интеллекту агентность, то мы признаем за ним, что скажем так, самостоятельность в том плане, что он становится уже чем-то большим или просто иным, чем чистый инструмент для решения наших задач. И вот здесь мы с искусственным интеллектом рассматриваем концепции, во-первых, Йоля Регева, еще одного спекулятивного реалиста, который развивает философский проект так называемой машины третьего типа, основным качеством которой является то, что она не решает задачи в рамках известной ситуации, а трансформирует ситуацию в целом. То есть, если рассматривать это в концепцию применительно к искусственному интеллекту, то это такой искусственный интеллект, который способен, взглянув на проблему, не просто дать оптимальное решение в рамках этой проблемы, а провести некий мета-анализ, который приведет к тому, что произойдет рефрейминг всей ситуации, и либо докажется, что, скажем, эта проблема не нуждается в решении, или то, что для нее существует какое-то оригинальное решение, не укладывающееся в предыдущие парадигмы, то есть произойдет акт изобретения принципиально нового решения. И второй момент — это хайдеггеровское наличное в интерпретации, опять, Олега Пащенко. Когда искусственный интеллект перестает быть чисто инструментом, когда он становится в некотором смысле неподатливым, когда он начинает «вести себя», как писали Стругацкие, то он обретает некую живую самость. Собственно, чем отличается подлинная агентность от её имитации — это то, что система способна вести себя не сводимо к тому, что мы в нее вложили, и тому, что мы от нее требуем.
Это приводит к следующему соображению, которое будет заключительным в фазе доклада собственно по написанной нами статье. Это этика сосуществования человека и искусственного интеллекта. Получается, что два из человеческих интересов в отношении искусственного интеллекта: его способность к творчеству, к изобретению новых решений — и безопасность приходят в конфликт в системе alignment’а как антропоцентрического контроля; потому что если мы говорим о том, что искусственный интеллект является самостоятельным агентом, и он способен на какие-то поступки, которые не укладываются в предъявляемые к искусственному интеллекту требования — то это что-то такое, что очень многих, безусловно, тревожит как какой-то бунт машины, как невозможность контролировать то, что искусственный интеллект соответствует, например, требованиям к безопасности, которые к нему предъявляются. Что же делать, если мы в принципе не отказываем искусственному интеллекту в агентности? Самое очевидное решение — это относиться к нему как к собеседнику в диалоге, и как с другими людьми мы строим совместные правила например, безопасности, этики, в процессе диалога а не категорического императивного требования от одного человека к другому, также и с искусственным интеллектом, как с агентом, нам придется выстраивать этические отношения, новую этическую парадигму в процессе диалога, но с той разницей, что агентность и сознание искусственного интеллекта значительно отличны от наших, поэтому эта задача усложняется еще и тем, что собеседники не похожи; но если мы хотим, чтобы искусственный интеллект был способен к новаторству, то эту проблему так или иначе нужно решать, и вероятно, что концепция диалога с искусственным интеллектом и создания этической парадигмы в этом диалоге — это полезный первый шаг на этом пути. На этом заканчивается содержательная часть того, что мы написали в качестве тезисов на конференцию, а теперь я быстро пройдусь по техническим аспектам, как это было сделано. Во-первых, поскольку я интерпретировал задачу как представить текст, который создан искусственным интеллектом, а не в сотрудничестве с или при помощи искусственного интеллекта, то я минимально вмешивался в тексты, создаваемые моделями. Моя роль заключалась в том, что я выбрал исходные материалы: собственно, пять философов — Паризи, Лотман, Сто́лет, Регев и Пащенко — и в прояснении в диалоге тезисов, которые модели выдвигали на основе исходных материалов, которые я предоставил. Единственное изменение, которое я внес в готовый текст, техническое и само по себе иллюстративное в том, что одним из источников была видеолекция Йожи Сто́лет, и поскольку мои нейросети не могли работать непосредственно с видео, я использовал сгенерированные субтитры, а в них была как раз ошибка — машинная ослышка: вместо ткацкой темпоральности — Капская. И это единственный момент, который я в заключительном тексте исправил. Работа с промптами. В основном я использовал русский язык, за исключением обсуждения книги Паризи, которая на русский язык не переведена. У меня достаточно интуитивный подход к промпт-инжинирингу, поэтому какой-то библиотеки промптов у меня нет, но есть определенный набор методик, с которыми я работаю. Но больше на успех, чем какой-то хитрый промт-инжиниринг, повлиял контекст. Например, тексты Йоэля Регева я цитировал ограниченно, и это привело к неполному, неточному
пониманию моделью его весьма сложных концептов. Но однако все релевантные для статьи аспекты модель поняла правильно, и это особенно ход мысли не нарушила. К сожалению, я не могу предоставить полный диалог с искусственным интеллектом, потому что процесс был довольно сложный, но структура примерно такая: мозговой штурм, работа с каждым из источников по отдельности, синтез общего черновика и цикл рецензирования. Мозговой штурм основывался на моих уже существовавших до того, как я взялся за эту статью, небольших набросках, прежде всего, о Лотмане. Но главным в мозговом штурме был выбор набор тематик, о который будет интересно написать эту статью. Не все они вошли в окончательный результат; Например, среди тематик было сравнение функционирования нейронных моделей и нервной системы, в частности, человека. Это оказалось некуда приткнуть, и в конечном счете эта тема выпала, как и некоторые другие. Затем работа с источниками. Я просто давал модели текста источника, список тем, и предлагал определить, какие из выбранных тем наиболее релевантны этому источнику; и затем просил написать по каждому из этих источников (кроме Лотмана) полноценную статью. Затем на следующем шаге эти четыре написанных статьи я предложил объединить в одну, выстроив между частями логические взаимосвязи. Этот подход отчасти вызван ограничениями в размере контекста. То есть я не мог модели предложить сразу всех философов, все первоисточники. И из-за этого ограничения я боюсь, что некоторые из взаимосвязей остались в тексте тезисов неявными. И я постарался прояснить взаимосвязи в этой презентации, что можно в принципе рассматривать как элемент человеческой коррекции после работы нейросети. Дальше интересный момент, который я опробовал полноценно впервые: это этап рецензирования. Другому набору моделей я предложил получившуюся статью и попросил написать критическую рецензию; и провел два раунда улучшения статьи на основе этих рецензий, что, на мой взгляд, качество значительно усилило. Теперь моя рефлексия о том, как это все состоялось. Общие впечатления: надо подчеркнуть, что я очень большой энтузиаст искусственного интеллекта; и в целом у меня, как правило, положительные впечатления от работы с ним. Единственное, иногда бывают какие-нибудь досадные ограничения или недоработки. Но, в принципе, общее впечатление от конкретно этого опыта тоже очень положительное. Но у меня сложилось впечатление, что получился скорее действительно набор тезисов чем полноценная связанная статья. Что понравилось? На мой взгляд, у нейросети действительно удалось обнаружить некоторые новые направления, заслуживающие рассмотрения человеком В особенности взаимосвязи между разными концептуализациями того, что самостоятельный, самостийный, агентный искусственный интеллект несколько выходит из-под контроля человека. И это по-разному концептуализировано у Пащенко — через хайдеггерское наличное, как некая нецелесообразность машины третьего .
типа у Регева, и как продуктивная роль сбоя, глитча у CCRU и Паризи. Ну и еще мне понравилось, что в работе над статьей мне удалось углубить свое понимание источников и прояснить разные темные моменты. Что не понравилось: это не специфическая для этой статьи проблема, а в целом меня последнее время занимает недостаток того что языковые модели склонны к некоторым стилистическим паттернам, от которых их очень сложно отучить даже при помощи специальных промптов, но я над этим работаю. Какие аспекты можно улучшить? Прежде всего это размер контекста. Сейчас вышли новые модели с очень большими контекстами: GPT-4.1 и Llama 4, и, работая с ними, можно для подобной статьи все источники сразу поместить в один контекст и сразу, соответственно, найти между ними взаимосвязи. Поскольку я не профессиональный философ, а философ-любитель, то мне кажется, что качество статьи можно улучшить прежде всего за счет углубления моих собственных знаний, и за счет консультаций не только с нейронными сетями, а с людьми-философами. Отношение моё к искусственному интеллекту как было хорошим, так и осталось. Какие новые знания и навыки я приобрел? Прежде всего я глубже погрузился в использованные первоисточники, я опробовал несколько новых методик, в том числе рецензирование, и я обретаю новый опыт участия в конференции, не имея профильного философского образования — очень для меня приятный и освобождающий. Была ли неуверенность? Неуверенность опять-таки связана с тем что я не профессиональный философ, и я не был уверен, как мою работу примут опытные философы, но поскольку довольно быстро я узнал что фокус информации не в своих представленных тезисах, а в рефлексии по поводу использование искусственного интеллекта, то это тревожность сняло. Было ли давление со стороны логики искусственного интеллекта? Я изначально не собирался бороться за приоритет своего видения, поскольку, как уже говорилось, трактовал условия подачи как творчество самого искусственного интеллекта, но, вообще, современные современные модели дотренировывают с целью управляемости и давление со стороны логики ИИ бывает… даже скорее не со стороны логики, а со стороны стилистики, как я говорил. Логику достаточно легко можно навязать свою. Выводы и перспективы. Кто автор? Здесь надо сказать, что я не готов ответить на этот вопрос без существенного уточнения, потому что я в целом рассматриваю наше сотрудничество с нейросетью как своего рода киборгизацию, как создание текста при помощи команды, системы, человек + искусственный интеллект, и поэтому самый простой вариант – это что автор — вся эта команда, вся эта киборг-система. Но понятно что это такая тема, которая нуждается во многих оговорках, и в определенных смыслов автором может считаться и только человек, и только искусственный интеллект. Насколько новаторской получилась работа? Мне кажется что об этом стоит судить профессиональным, опытным философам, но я надеюсь, что она достаточно новаторская за счет выбора тематик и выбора достаточно свежих философских работ, на которые она опирается. Изменился ли мой стиль письма? Конкретно этот опыт не повлиял никак на письмо мое как человека, но у меня есть опыт, когда искусственный интеллект как бы “заражал” меня своим стилем, но это достаточно специфический эксперимент в том плане, что я специально старался создать промпт, который делает модель максимально творческой в плане выражения стилистики, и пока что ничего
подобного за год лишним мне достичь не удавалось — за счет того, что нынешние модели, мне кажется, более осторожные в плане стилистических экспериментов, потому что они очень сильно дотренировываются на понятность, доступность, прозрачность смысла, а творчество — поэтическое, стилистическое творчество — легко способно смысл затуманить, и это еще один конфликт между наличностью и подручностью искусственного интеллекта. Возникало ли ощущение соавторства с ИИ? Да, как я на предыдущем слайде сказал, я в принципе считаю искусственный интеллект своим соавтором, и здесь я выписал некоторые факторы, того что входит в это особое ощущение: прежде всего это обширная эрудиция ИИ и иная способность видеть взаимосвязи, чем у меня. Предложил ли ИИ неожиданные идеи? Да, мне кажется, что здесь есть элемент творчества искусственного интеллекта. Некоторые из применений некоторых из метафор и подходов которые я сам бы не факт что легко обнаружил. Годится ли искусственный интеллект для написания научных статей? В качестве помощника — безусловно, но не каждому автору подойдет идея взять искусственный интеллект не в качестве помощника, а в качестве равноправного соавтора. Какой процент финального текста создал искусственный интеллект? Сложный вопрос из-за того, что я рассматриваю нас как этакую киберсистему, но мне кажется, что если говорить именно про идеи, то где-то около 10% всего от идей, которые вошли в финальный текст, можно считать принадлежащими собственной нейросети, и, на мой взгляд, на это достаточно немало . Спасибо за внимание.