🏠︎ digital-philosophy.ru

Конференция: «Технологии искусственного интеллекта в гуманитарных

научных исследованиях: опыт и перспективы использования»

Москва, 10 июня 2025 г

Ларионов Игорь Юрьевич доцент, к.филос.н., заведующий Кафедрой

философской антропологии, научный руководитель проекта «Лаборатория

цифровой философии» СПБГУ

Ярочкин Дмитрий Андреевич, волонтер, координатор проекта

«Лаборатория цифровой философии» СПБГУ,

https://philosophy.spbu.ru/ru/609-laboratoriya-tsifrovoj-filosofii.html

Текст отредактирован chat GPT 4, GigaChat

При анализе данных использовался GPT 4

Философские аспекты языковых моделей ИИ: Итоги конференции 2025 года в рамках проекта «Лаборатория цифровой философии»

Аннотация.

В 2025 году в Санкт-Петербургском государственном университете (СПбГУ)в рамках проекта «Лаборатория цифровой философии» была проведена междисциплинарная конференция «Философские аспекты языковых моделей искусственного интеллекта». Уникальность мероприятия заключалась в том, что участники защищали философские тезисы, сгенерированные с помощью систем ИИ. После устной защиты участники прошли опрос, дублирующий основные темы конференции. Такой формат, сочетающий генеративную мощность ИИ с критическим потенциалом философской дискуссии, является новым для мировой научной практики. Это позволило выявить особенности взаимодействия между человеком и ИИ в осмыслении гуманитарных проблем, таких как авторство, интерпретация и философская агентность. В результате анализа защит был выявлен феномен «гибридного авторства». Доклад затрагивает этические и методологические аспекты применения ИИ в гуманитарных исследованиях, обсуждает возможности и ограничения такого подхода, а также перспективы его масштабирования. Сравнение текстов выступлений, сгенерированных тезисов и ответов на опрос позволяет оценить вклад конференции в мировоззрение участников. Материалы конференции доступны на сайте проекта: https://digital-philosophy.ru/event/fIIlConAgenda.html

Введение.

ИИ в педагогике

Журнал Journal of International Affairs (Author(s)., 2022) содержит интересный пример использования ChatGPT как инструмента познания. Статья представляет собой диалог с нейросетью, что является интересным методологическим подходом, а также может служить сценарным планом для проведения урока. Такой формат позволяет в интерактивной форме исследовать ключевые вопросы философии языка и философской методологии в целом.

Другие исследования фокусируются на технических аспектах применения ИИ в обучении, таких как динамическая адаптация к индивидуальности студента (Wasson,1998), а также на общих плюсах и минусах использования ИИ педагогами. Рассматривается также роль ИИ в переходе от образовательной модели, ориентированной исключительно на физический результат, к подходу, в котором важен и сам процесс достижения результата (Chiang, et al. , 2024). Препринт ChatGPT and Education (Velbor Bazic, Indrasen Poola) подчёркивает, что ИИ может быть использован в обучении для изучения языка, помощи в написании текстов, автоматической оценки и персонализации обучения, что способствует улучшению доступности образования. Y. Kim указывает, что ИИ может служить культурным посредником между людьми разных культур, что способствует улучшению атмосферы в классе (Kim, 2016). Технологии могут также поддерживать исследовательскую деятельность и стимулировать дискуссии в аудитории (Lee, et al., 2024), развивая критическое мышление студентов. Однако авторы также поднимают вопросы академической честности в отношении использования технологий, поскольку даже опытным преподавателям порой трудно определить, была ли использована нейросеть.

Из недостатков ИИ в образовании авторы отмечают избыточную зависимость от технологий, снижение социального взаимодействия, проблемы неточности и искажений данных, а также скрытый плагиат. Среди других трудностей выделяются проблемы с правами собственности, неспособность ИИ понять контекст, этические проблемы, дорогостоящая инфраструктура, необходимая для внедрения технологий, а также необходимость отдельного обучения преподавателей и студентов работе с ИИ. Создание автоматизированных систем адаптации программы может привести к тому, что студенты будут восприниматься как часть нейросети, что является некорректным.

Диана Луриланд ( Laurillard, 1988 ) критикует модели ошибок, используемые в таких системах, суть которых заключается в прогнозировании ошибок студентов и принятии их как корректных, если система может их исправить. Однако это не всегда точно, и такой подход может быть сравним с методом обратного распространения ошибки в нейросетях, который, хотя и оказался успешным в ИИ, не всегда применим к живому человеку

В публикациях также упоминаются ограничения нейросетей в образовании, такие как ограниченность и предвзятость обучающих корпусов текстов, неточность и отсутствие контекста. Особенно сильно эти ограничения проявляются при использовании нейросетей в области философии. Тем не менее, ИИ в образовании может помочь преподавателю сосредоточиться на более сложных навыках, таких как критическое мышление, оставляя решение задач грамматики и орфографии за ИИ. Он способен улучшить коммуникацию, вырабатывать новые подходы в образовании и предоставлять ученикам ответы в реальном времени, что может значительно повысить доступность школьного образования.

Глобальное изучение проблем использования ИИ в образовательной сфере имеет важное значение (Leach, 2008).). Предлагается также использовать ИИ для совершенствования навыков письма (Lin & Chang, 2020), а также рассматривается альтернативный вариант автоматизации знаний через семантический веб (Pasin & Motta 2011). Модель INTUITEL (Verdú, et al., 2017).), основанная на семантическом вебе, может служить примером философского бота, который может быть использован в качестве философской лаборатории (Rees, 2022). В то же время область применения технологий ИИ в обучении философии, особенно в контексте разработки приложений, остаётся малоизученной.

Метод и данные

Подготовка и проведение конференции состояли из нескольких последовательных этапов. Сначала участники предоставляли тексты, созданные с помощью языковых моделей ИИ, объемом до 10 000 символов, обязательно указывая название системы ИИ. Затем тексты подвергались автоматической первичной оценке с применением инструментов искусственного интеллекта, таких как чат-бот платформы Hugging Face и сервис perplexity. Эта оценка базировалась на критериях философской глубины, качестве использования ИИ-технологий, стиле подачи материала и значимости содержания. Далее следовал этап экспертной проверки, в ходе которой квалифицированные специалисты дополнительно оценивали семантическую связность, креативность, этичность, техническое исполнение и философскую глубину представленных работ. Для организационных целей использовались продвинутые инструменты искусственного интеллекта, в частности GPT-4.0, который помогал формировать программу конференции, разрабатывать структуру анкет и оформлять сайт мероприятия. Аудиозаписи выступлений автоматически транскрибировались сервисом Rev AI, а полученные записи редактировались с помощью GPT-4.0. Устные презентации проводились в гибридном формате, сопровождались активными дискуссиями и пленарными лекциями международного сообщества, посвященными влиянию ИИ на человеческое сознание, мышление и культурные процессы. По окончании конференции проводился онлайн-опрос участников, позволяющий выработать целостное философское представление по данной проблематике. Наиболее интересные материалы публиковались на специализированном ресурсе «Лаборатория цифровой философии», обеспечивая доступ широкой аудитории к результатам исследования.

Анализ материалов конференции.

Этический аспект.

Авторство и интеллектуальная собственность

Участники конференции обсудили проблему определения авторства в текстах, созданных с участием ИИ. Возникает вопрос: кто является настоящим автором — человек, инициировавший процесс, или ИИ, сгенерировавший текст? Это поднимает вопросы интеллектуальной собственности и ответственности за содержание таких текстов.

Прозрачность и ответственность

Существенной чертой постгуманизма является соотношение человека и машины их диалектическое противостояние и единство. Проблематизация агентности является с одной стороны конкретизацией взгляда ИИ, с другой стороны, на самого человека.

Для того, чтобы предложить гибкую и действенную систему регуляции того или иного явления, необходимо его понять. В частности, надо понять статус ИИ как действующего субъекта. В зависимости от того, считаем ли мы, что ИИ сам принимает решения, могут ли эти решения идти в разрез с желаниями конкретного человека или даже всего общества мы получаем ту или иную этику.

Что касается ИИ, такое гибридное состояние заставляет нас задуматься системе регуляции, которая будет подвержена ИИ и выработать некоторую этику, которая ближе к ограничениям ИИ. Гибридность предполагает, что ИИ не является полностью автономным, он создана и запрограммирован человеком, но как феномен он обладает значительной степенью самостоятельности.

Необходимо различать прозрачность для разработчика, которая дает возможность понять работу всей системы, пользователя для общего понимания и предсказания, для общества с целью общего понимания интеллектуальных систем, и конкретных действий, и более комфортного сосуществования с ними, для экспертов раду осуществления аудита, разработки стандартов безопасности, для того кто запускает систему (deployer) прозрачность позволяет добиться согласия с аудиторией и в некоторых случаях побудить ее к тем или иным действиям.[1]

Прозрачность в использовании ИИ в философском письме была признана важным этическим аспектом. Участники подчеркнули необходимость четкого обозначения степени участия ИИ в создании текста, чтобы избежать введения читателей в заблуждение относительно источника идей и аргументов. При публикации материалов мы столкнулись с тем, что в академическом мире трудно издать сборник сгенерированных тезисов, поэтому было принято решения опубликовать и как приложения к устному выступлению, автором которого точно является человека, поскольку обсуждение предполагало защиту текстов и ответы на вопросы. Было принято решение не публиковать выcтупление участника, который лишь слово в слово зачитал генерацию. Также при публикации на сайте мы обнаружили что отсутствует способ маркировки сгенерированного контента в вебе хотя обсуждается тег ai genmerated Это предложение обсуждается в рамках WHATWG (Web Hypertext Application Technology Working Group), ответственного за разработку спецификации HTML https://github.com/whatwg/html/issues/9479?utm_source=chatgpt.com Однако эта инициатива остается половинчатой так как лишь указывает что на всей странице присутствует сгенерированный контент и не указывает конкретно какой и в какой степени. Мы считаем это проблемой искренности. В связи с этим необходимо детально рассмотреть вопрос авторства в его текучих формах.

Обсуждались вопросы внедрения этических ограничений в работу ИИ, особенно в контексте генерации философских текстов. Участники подчеркнули важность настройки ИИ с учетом определенных ценностных ориентиров, чтобы избежать распространения вредоносных или дискриминационных идей.

Антропологические аспекты

Влияние на критическое мышление и образовательные практики

Конференция затронула тему влияния использования ИИ на развитие критического мышления, особенно в образовательных контекстах. Обсуждалась необходимость обучения студентов и исследователей ответственному и осознанному использованию ИИ в процессе написания философских текстов. Было установлено, что мы склонны считать ИИ экспертом в тех областях, в которых не являемся специалистами. В своих тексты, которые он сгенерировал мы можем считать поверхностными. Несмотря на то, что участники сумели создать адекватный текст, сама необходимость контроля говорит о том, что именно они являются авторами текста, а не ИИ.

Ограничения

Ограничения конференции включают: узкий фокус на языковых моделях ИИ (таких как GPT, YandexGPT, Bard), что сужает спектр философских исследований; ограничение объёма текстов (до 10 000 знаков) и времени презентаций (до 20 минут), что может повлиять на глубину аргументации; определённые критерии оценки и предварительная автоматизированная экспертиза, потенциально предопределяющие философский подход; высокая технологическая зависимость от GPT-4 и других ИИ-инструментов; акцент на теме авторства, что может отодвигать иные вопросы философии ИИ; а также ограничения, связанные с гибридным форматом и сроками подачи. Тем не менее, конференция остаётся ценной площадкой для осмысленного диалога о философских аспектах взаимодействия человека и ИИ.

Результаты

Исследование итогов опроса участников конференции «Философские аспекты языковой модели искусственного интеллекта» показывает изменения в восприятии понятий авторства и агентности в условиях взаимодействия людей с генеративными технологиями. Участники демонстрируют двоякое отношение к искусственному интеллекту: признавая его полезным помощником в написании философских работ, они отмечают ограничения алгоритмов в понимании нюансов философской мысли. Такое сотрудничество способствует осознанию творчества как совместного, подвижного и технологического явления, объединённого с человеческим участием.

Во взаимодействии с ИИ респонденты подчёркивают, что он перестаёт восприниматься исключительно как техническое средство, становясь скорее интеллектуальным партнёром. Процесс написания философских произведений сопровождается чувством сотрудничества и обмена идеями, когда система поддерживает развитие аргументов, создаёт новые концепции и предлагает альтернативные решения. Авторская роль постепенно распределяется между человеком и машиной.

Несмотря на значимость вклада ИИ, большинство участников утверждает доминирующую позицию собственного сознания в творчестве. Их аргументы включают контроль над ходом размышлений, моральную ответственность, глубокую осведомлённость в предмете исследования и аналитические способности при работе с материалом. Искусственный интеллект рассматривается главным образом как вспомогательное средство, а не самостоятельный источник вдохновения.

Некоторые участники обращают внимание на недостатки машинного подхода к обработке философского содержания. Выделяются такие проблемы, как игнорирование тонких аспектов контекста, поверхностная трактовка категорий и недостаточность глубокого понимания философских вопросов. Это отражает современные границы вычислительных методов в сфере гуманитарных исследований.

Таким образом, работа с ИИ превращается в непрерывный цикл порождаемого текста, последующего пересмотра, анализа и переосмысления. Само понятие авторства теряет свою традиционную определённость, проявляясь как многослойный, зависящий от технических факторов коллективный продукт, авторство становиться процессуальным, а не статичным атрибутом.