Конференция: «Технологии искусственного интеллекта в гуманитарных
научных исследованиях: опыт и перспективы использования»
Москва, 10 июня 2025 г
Ларионов Игорь Юрьевич доцент, к.филос.н., заведующий Кафедрой
философской антропологии, научный руководитель проекта «Лаборатория
цифровой философии» СПБГУ
Ярочкин Дмитрий Андреевич, волонтер, координатор проекта
«Лаборатория цифровой философии» СПБГУ,
https://philosophy.spbu.ru/ru/609-laboratoriya-tsifrovoj-filosofii.html
Текст отредактирован chat GPT 4, GigaChat
При анализе данных использовался GPT 4
Философские аспекты языковых моделей ИИ: Итоги конференции 2025 года в рамках проекта «Лаборатория цифровой философии»
Аннотация.
В 2025 году в Санкт-Петербургском государственном университете (СПбГУ)в рамках проекта «Лаборатория цифровой философии» была проведена междисциплинарная конференция «Философские аспекты языковых моделей искусственного интеллекта». Уникальность мероприятия заключалась в том, что участники защищали философские тезисы, сгенерированные с помощью систем ИИ. После устной защиты участники прошли опрос, дублирующий основные темы конференции. Такой формат, сочетающий генеративную мощность ИИ с критическим потенциалом философской дискуссии, является новым для мировой научной практики. Это позволило выявить особенности взаимодействия между человеком и ИИ в осмыслении гуманитарных проблем, таких как авторство, интерпретация и философская агентность. В результате анализа защит был выявлен феномен «гибридного авторства». Доклад затрагивает этические и методологические аспекты применения ИИ в гуманитарных исследованиях, обсуждает возможности и ограничения такого подхода, а также перспективы его масштабирования. Сравнение текстов выступлений, сгенерированных тезисов и ответов на опрос позволяет оценить вклад конференции в мировоззрение участников. Материалы конференции доступны на сайте проекта: https://digital-philosophy.ru/event/fIIlConAgenda.html
Введение.
ИИ в педагогике
Журнал Journal of International Affairs (Author(s)., 2022) содержит интересный пример использования ChatGPT как инструмента познания. Статья представляет собой диалог с нейросетью, что является интересным методологическим подходом, а также может служить сценарным планом для проведения урока. Такой формат позволяет в интерактивной форме исследовать ключевые вопросы философии языка и философской методологии в целом.
Другие исследования фокусируются на технических аспектах применения ИИ в обучении, таких как динамическая адаптация к индивидуальности студента (Wasson,1998), а также на общих плюсах и минусах использования ИИ педагогами. Рассматривается также роль ИИ в переходе от образовательной модели, ориентированной исключительно на физический результат, к подходу, в котором важен и сам процесс достижения результата (Chiang, et al. , 2024). Препринт ChatGPT and Education (Velbor Bazic, Indrasen Poola) подчёркивает, что ИИ может быть использован в обучении для изучения языка, помощи в написании текстов, автоматической оценки и персонализации обучения, что способствует улучшению доступности образования. Y. Kim указывает, что ИИ может служить культурным посредником между людьми разных культур, что способствует улучшению атмосферы в классе (Kim, 2016). Технологии могут также поддерживать исследовательскую деятельность и стимулировать дискуссии в аудитории (Lee, et al., 2024), развивая критическое мышление студентов. Однако авторы также поднимают вопросы академической честности в отношении использования технологий, поскольку даже опытным преподавателям порой трудно определить, была ли использована нейросеть.
Из недостатков ИИ в образовании авторы отмечают избыточную зависимость от технологий, снижение социального взаимодействия, проблемы неточности и искажений данных, а также скрытый плагиат. Среди других трудностей выделяются проблемы с правами собственности, неспособность ИИ понять контекст, этические проблемы, дорогостоящая инфраструктура, необходимая для внедрения технологий, а также необходимость отдельного обучения преподавателей и студентов работе с ИИ. Создание автоматизированных систем адаптации программы может привести к тому, что студенты будут восприниматься как часть нейросети, что является некорректным.
Диана Луриланд ( Laurillard, 1988 ) критикует модели ошибок, используемые в таких системах, суть которых заключается в прогнозировании ошибок студентов и принятии их как корректных, если система может их исправить. Однако это не всегда точно, и такой подход может быть сравним с методом обратного распространения ошибки в нейросетях, который, хотя и оказался успешным в ИИ, не всегда применим к живому человеку
В публикациях также упоминаются ограничения нейросетей в образовании, такие как ограниченность и предвзятость обучающих корпусов текстов, неточность и отсутствие контекста. Особенно сильно эти ограничения проявляются при использовании нейросетей в области философии. Тем не менее, ИИ в образовании может помочь преподавателю сосредоточиться на более сложных навыках, таких как критическое мышление, оставляя решение задач грамматики и орфографии за ИИ. Он способен улучшить коммуникацию, вырабатывать новые подходы в образовании и предоставлять ученикам ответы в реальном времени, что может значительно повысить доступность школьного образования.
Глобальное изучение проблем использования ИИ в образовательной сфере имеет важное значение (Leach, 2008).). Предлагается также использовать ИИ для совершенствования навыков письма (Lin & Chang, 2020), а также рассматривается альтернативный вариант автоматизации знаний через семантический веб (Pasin & Motta 2011). Модель INTUITEL (Verdú, et al., 2017).), основанная на семантическом вебе, может служить примером философского бота, который может быть использован в качестве философской лаборатории (Rees, 2022). В то же время область применения технологий ИИ в обучении философии, особенно в контексте разработки приложений, остаётся малоизученной.
Метод и данные
Подготовка и проведение конференции состояли из нескольких последовательных этапов. Сначала участники предоставляли тексты, созданные с помощью языковых моделей ИИ, объемом до 10 000 символов, обязательно указывая название системы ИИ. Затем тексты подвергались автоматической первичной оценке с применением инструментов искусственного интеллекта, таких как чат-бот платформы Hugging Face и сервис perplexity. Эта оценка базировалась на критериях философской глубины, качестве использования ИИ-технологий, стиле подачи материала и значимости содержания. Далее следовал этап экспертной проверки, в ходе которой квалифицированные специалисты дополнительно оценивали семантическую связность, креативность, этичность, техническое исполнение и философскую глубину представленных работ. Для организационных целей использовались продвинутые инструменты искусственного интеллекта, в частности GPT-4.0, который помогал формировать программу конференции, разрабатывать структуру анкет и оформлять сайт мероприятия. Аудиозаписи выступлений автоматически транскрибировались сервисом Rev AI, а полученные записи редактировались с помощью GPT-4.0. Устные презентации проводились в гибридном формате, сопровождались активными дискуссиями и пленарными лекциями международного сообщества, посвященными влиянию ИИ на человеческое сознание, мышление и культурные процессы. По окончании конференции проводился онлайн-опрос участников, позволяющий выработать целостное философское представление по данной проблематике. Наиболее интересные материалы публиковались на специализированном ресурсе «Лаборатория цифровой философии», обеспечивая доступ широкой аудитории к результатам исследования.
Анализ материалов конференции.
Этический аспект.
Авторство и интеллектуальная собственность
Участники конференции обсудили проблему определения авторства в текстах, созданных с участием ИИ. Возникает вопрос: кто является настоящим автором — человек, инициировавший процесс, или ИИ, сгенерировавший текст? Это поднимает вопросы интеллектуальной собственности и ответственности за содержание таких текстов.
Прозрачность и ответственность
Существенной чертой постгуманизма является соотношение человека и машины их диалектическое противостояние и единство. Проблематизация агентности является с одной стороны конкретизацией взгляда ИИ, с другой стороны, на самого человека.
Для того, чтобы предложить гибкую и действенную систему регуляции того или иного явления, необходимо его понять. В частности, надо понять статус ИИ как действующего субъекта. В зависимости от того, считаем ли мы, что ИИ сам принимает решения, могут ли эти решения идти в разрез с желаниями конкретного человека или даже всего общества мы получаем ту или иную этику.
Что касается ИИ, такое гибридное состояние заставляет нас задуматься системе регуляции, которая будет подвержена ИИ и выработать некоторую этику, которая ближе к ограничениям ИИ. Гибридность предполагает, что ИИ не является полностью автономным, он создана и запрограммирован человеком, но как феномен он обладает значительной степенью самостоятельности.
Необходимо различать прозрачность для разработчика, которая дает возможность понять работу всей системы, пользователя для общего понимания и предсказания, для общества с целью общего понимания интеллектуальных систем, и конкретных действий, и более комфортного сосуществования с ними, для экспертов раду осуществления аудита, разработки стандартов безопасности, для того кто запускает систему (deployer) прозрачность позволяет добиться согласия с аудиторией и в некоторых случаях побудить ее к тем или иным действиям.[1]
Прозрачность в использовании ИИ в философском письме была признана важным этическим аспектом. Участники подчеркнули необходимость четкого обозначения степени участия ИИ в создании текста, чтобы избежать введения читателей в заблуждение относительно источника идей и аргументов. При публикации материалов мы столкнулись с тем, что в академическом мире трудно издать сборник сгенерированных тезисов, поэтому было принято решения опубликовать и как приложения к устному выступлению, автором которого точно является человека, поскольку обсуждение предполагало защиту текстов и ответы на вопросы. Было принято решение не публиковать выcтупление участника, который лишь слово в слово зачитал генерацию. Также при публикации на сайте мы обнаружили что отсутствует способ маркировки сгенерированного контента в вебе хотя обсуждается тег ai genmerated Это предложение обсуждается в рамках WHATWG (Web Hypertext Application Technology Working Group), ответственного за разработку спецификации HTML https://github.com/whatwg/html/issues/9479?utm_source=chatgpt.com Однако эта инициатива остается половинчатой так как лишь указывает что на всей странице присутствует сгенерированный контент и не указывает конкретно какой и в какой степени. Мы считаем это проблемой искренности. В связи с этим необходимо детально рассмотреть вопрос авторства в его текучих формах.
Обсуждались вопросы внедрения этических ограничений в работу ИИ, особенно в контексте генерации философских текстов. Участники подчеркнули важность настройки ИИ с учетом определенных ценностных ориентиров, чтобы избежать распространения вредоносных или дискриминационных идей.
Антропологические аспекты
Влияние на критическое мышление и образовательные практики
Конференция затронула тему влияния использования ИИ на развитие критического мышления, особенно в образовательных контекстах. Обсуждалась необходимость обучения студентов и исследователей ответственному и осознанному использованию ИИ в процессе написания философских текстов. Было установлено, что мы склонны считать ИИ экспертом в тех областях, в которых не являемся специалистами. В своих тексты, которые он сгенерировал мы можем считать поверхностными. Несмотря на то, что участники сумели создать адекватный текст, сама необходимость контроля говорит о том, что именно они являются авторами текста, а не ИИ.
Ограничения
Ограничения конференции включают: узкий фокус на языковых моделях ИИ (таких как GPT, YandexGPT, Bard), что сужает спектр философских исследований; ограничение объёма текстов (до 10 000 знаков) и времени презентаций (до 20 минут), что может повлиять на глубину аргументации; определённые критерии оценки и предварительная автоматизированная экспертиза, потенциально предопределяющие философский подход; высокая технологическая зависимость от GPT-4 и других ИИ-инструментов; акцент на теме авторства, что может отодвигать иные вопросы философии ИИ; а также ограничения, связанные с гибридным форматом и сроками подачи. Тем не менее, конференция остаётся ценной площадкой для осмысленного диалога о философских аспектах взаимодействия человека и ИИ.
Результаты
Исследование итогов опроса участников конференции «Философские аспекты языковой модели искусственного интеллекта» показывает изменения в восприятии понятий авторства и агентности в условиях взаимодействия людей с генеративными технологиями. Участники демонстрируют двоякое отношение к искусственному интеллекту: признавая его полезным помощником в написании философских работ, они отмечают ограничения алгоритмов в понимании нюансов философской мысли. Такое сотрудничество способствует осознанию творчества как совместного, подвижного и технологического явления, объединённого с человеческим участием.
Во взаимодействии с ИИ респонденты подчёркивают, что он перестаёт восприниматься исключительно как техническое средство, становясь скорее интеллектуальным партнёром. Процесс написания философских произведений сопровождается чувством сотрудничества и обмена идеями, когда система поддерживает развитие аргументов, создаёт новые концепции и предлагает альтернативные решения. Авторская роль постепенно распределяется между человеком и машиной.
Несмотря на значимость вклада ИИ, большинство участников утверждает доминирующую позицию собственного сознания в творчестве. Их аргументы включают контроль над ходом размышлений, моральную ответственность, глубокую осведомлённость в предмете исследования и аналитические способности при работе с материалом. Искусственный интеллект рассматривается главным образом как вспомогательное средство, а не самостоятельный источник вдохновения.
Некоторые участники обращают внимание на недостатки машинного подхода к обработке философского содержания. Выделяются такие проблемы, как игнорирование тонких аспектов контекста, поверхностная трактовка категорий и недостаточность глубокого понимания философских вопросов. Это отражает современные границы вычислительных методов в сфере гуманитарных исследований.
Таким образом, работа с ИИ превращается в непрерывный цикл порождаемого текста, последующего пересмотра, анализа и переосмысления. Само понятие авторства теряет свою традиционную определённость, проявляясь как многослойный, зависящий от технических факторов коллективный продукт, авторство становиться процессуальным, а не статичным атрибутом.
Выводы
Таким образом, философская практика, связанная с использованием языковых моделей, позволяет говорить о формировании новой конфигурации авторства. Человек сохраняет ведущую позицию, но уже не как изолированный субъект, а как участник кооперации с нелинейным и частично автономным агентом. Это ставит под вопрос традиционные представления об индивидуальной авторской интенции и предполагает переосмысление письма как социально-технологической формы производства знания, в которой границы между субъектом и инструментом становятся проницаемыми. Даже те участники, которые старались максимально использовать ИИ при обсуждении показывали большую долю участия в организации материала, процесса работы, оценке генераций, простановке задачи.
Обсуждения
Проведённая конференция и сопутствующее исследование демонстрируют не только высокий интерес философского сообщества к языковым моделям ИИ, но и наличие устойчивого запроса на институционализированную форму изучения их влияния на гуманитарную практику. В частности, практика соавторства с ИИ требует развития новых навыков: не просто технической грамотности, но и способности к критической рефлексии, этической оценке и философской интерпретации технологических посредников в познании и письме. Это ставит на повестку дня создание Лаборатории цифровой философии как образовательного, исследовательского и практического центра, способного не только поддерживать индивидуальные и коллективные проекты в области философии ИИ, но и формировать новое поколение мыслителей, умеющих обращаться с интеллектуальными машинами в рамках философской традиции.
Масштабирование проекта может осуществляется путем создания образовательных программ и научных инициатив, направленных на развитие компетенций студентов и исследователей в области цифрового письма, этики генеративных систем и философского осмысления ИИ. Проект предполагает разработку исследовательской повестки, охватывающей изменения в понятиях авторства, субъективности и эпистемологии в условиях использования ИИ. Важнейшей задачей становится создание экспериментальной платформы, позволяющей рассматривать языковые модели как средство расширения интеллектуальных возможностей, а не угрозы традиционному мышлению. Необходимо организовать междисциплинарные коллаборации, привлекающие философов, программистов, деятелей искусства и преподавателей для изучения сущности мышления и письменности в цифровой среде.
Одним из перспективных направлений масштабирования является разработка специальных стандартов HTML для четкого обозначения различных аспектов авторства в тексте, учитывая его гибридную природу (авторство идеи, структуры, редакции, формулирования задания и др.). Реализация этих проектов требует комплексного подхода, объединяющего философию, право, лингвистику и технику. Таким образом, лаборатория цифровой философии превращается в центр формирования нового типа мышления, основанного на взаимодействии человека и машины, способствуя сохранению и развитию традиций философствования в XXI веке.
[1] Weller A. Challenges for transparency. – 2017. С 56
Литература.
- Božić, V., & Poola, I. (2023). *ChatGPT and education*. Preprint. R
- Chiang, F., Zhang, Y., & Wang, L. (2024). From product to process: How AI reshapes educational philosophy. *Frontiers in Education, 9*,
- Journal of International Affairs. (2022). OpenAI’s ChatGPT and the prospect of limitless information. *Journal of International Affairs, 75*(2).
- Kim, Y. (2016). Artificial intelligence as a cultural mediator: A classroom perspective. *International Journal of Artificial Intelligence in Education, 26*(4), 891–910.
- Laurillard, D. (1988). A strategy for the design of computer-based learning. *British Journal of Educational Technology, 19*(1), 26–32.
- Leach, J. (2008). Do new information and communication technologies have a role to play in the achievement of education for all? *British Educational Research Journal, 34*(6), 783–805.
- Lee, M., Chen, T., & Patel, R. (2024). Fostering critical thinking with generative AI in classrooms. *Microsoft Research Working Paper*.
- Lin, Y.-T., & Chang, C.-Y. (2020). Enhancing post-secondary writers’ writing skills with a chatbot: A mixed-method classroom study. *Computers & Education, 151*, 103831.
- Pasin, F., & Motta, E. (2011). Semantic learning narratives: A new approach for structuring learning content. *British Journal of Educational Technology, 42*(1), 12–25.
- Rees, T. (2022). Non-human words: On GPT-3 as a philosophical technology. *Daedalus, 151*(2), 168–181.
- Verdú, E., Regueras, L. M., Verdú, M. J., Leal, A., de Castro, J. P., & Queirós, R. (2017). INTUITEL: Intelligent tutorial interface for technology-enhanced learning. *Computers in Human Behavior, 71*, 607–620.
- Wasson, B. (1998). Designing and evaluating collaborative learning environments. In *Proceedings of the International Conference on the Learning Sciences* (pp. 272–277). Charlottesville, VA: Association for the Advancement of Computing in Education.
- Weller A. Challenges for transparency. – 2017