Гипотеза
Мы исходим из того, что для регуляции БПТС необходимо выработать подход учитывающий гибридность связи человека и машины. Фундаментальным аспектам такого подхода является прозрачность по отношению ко всем контрагентом
Цель
Мы считаем важным на данном этапе развития технологий сосредоточиться на самом подходе к созданию системы регуляции БПТС, который смог бы обеспечить действенность выработанных установок
Задачи
Данная цель может быть осуществлена в результате выяснения статуса БПТС, выявления принципов и предложение модели регуляции БПТС
Актуальность
Технологии ИИ проникают в нашу жизнь стремительно, однако начали они сравнительно недавно, поэтому мировоззренческое понимание ИИ в целом и его воплощение в БПТС в частности видится актуальным именно сейчас
Новизна
Предлагаемый подход предлагает реально осуществимое понимание регуляции ИИ через установления особых правил документации разработки и практик написания кода.
Введение.
Мы считаем, что для того, чтобы адекватно рассмотреть систему регуляции беспилотников, нужно посмотреть статус самого беспилотника с точки зрения этики и онтологии.
Эта необходимость возникает в виду того, что есть большое недопонимание между инженерами и гуманитариями. В России открывается все больше программ так или иначе направленных на преодоление этого разрыва. И тем не менее статус машины до конца еще прояснён. Машина мыслится либо чисто как машина, которая исполняет человеческие приказания, то есть является бездушной машиной, либо как полностью самостоятельный объект, который за нас думает. Эта проблематика усиливается с ростом технологии и заставляет нас проводить рефлексию постгуманизма.
Существенной чертой постгуманизма является соотношение человека и машины их диалектическое противостояние и единство. Несмотря на то, что полностью постчеловек на данный момент является больше героем киберпанка, чем реальной жизни, можно уже сейчас говорить о гибридном состоянии, которое заставляет нас задуматься, о том, что, собственно, является действием, и что является агентностью. Проблематизация агентности является с одной стороны конкретизацией взгляда машину, с другой стороны, на самого человека.
Для того, чтобы предложить гибкую и действенную систему регуляции того или иного явления, необходимо его понять. В частности, надо понять статус машины как действующего субъекта. В зависимости от того, считаем ли мы, что машина сама принимает решения, могут ли эти решения идти в разрез с желаниями конкретного человека или даже всего общества мы получаем ту или иную этику.
Что касается машины, такое гибридное состояние заставляет нас задуматься системе регуляции, которая будет подвержена машинам и выработать некоторую этику, которая ближе к ограничениям машины. Гибридность предполагает, что машина не является полностью автономной, она создана и запрограммирована человеком, но как феномен она обладает значительной степенью самостоятельности. Это самостоятельность, неподвластность машины воле человека неизбежно возникает как следствия физических ограничений машины, системы человеческих отношений, которые ее породили. Само общество определяет по каким правилам будет существовать машина и по отношению к единичному субъекту она выражает манифестацию этических воззрений всего общества.
И такая зависимость от воззрений общества накладывает существенный отпечаток на дизайн машины. К сожалению, разработчики не всегда отдают отчет себе в том, каким ценностям они следуют. Исследования показывают, что различные этические концепции по-разному влияют на то, как мы беспилотники будут себя вести. Понимание того, что ценности, которым мы следуем, не всегда являются абсолютными является контуринтуитивными, а процесс воплощения ценностей в физическом инструменте является сложной цепочкой семиотических переходов метафор мышления. Поскольку рост значимости ИИ во всех процессах современного общества значителен, этот процесс феноменологической манифестации этики в машине не должен быть отрефлексировал. Залогом устойчивого развития в будущем является наша ответственная позиция по отношению к зарождающимся процессам в настоящем. Ганс йонас указывал на то, что процесс раз начавшись приобретает свою логику. Остановить его уже нельзя. Так же и С ИИ. Останавливать его развитие, или накладывать искусственные ограничения — это всего лишь временные меры.
Наиболее важной чертой для безопасного ИИ является его прозрачность. Прозрачность сама по себе является проблематичной. В зависимости от контекста она принимает разные черты и в некоторых аспектах, может быть, даже вредна. Поэтому в отношении БПТС критерии прозрачности должны быть определены отдельно и здраво взвешены обществом. Мы должны понять, где прозрачность является средством, а где терминальной ценностью.
Необходимо различать прозрачность для разработчика, которая дает возможность понять работу всей системы, пользователя для общего понимания и предсказания, для общества с целью общего понимания интеллектуальных систем, и конкретных действий, и более комфортного сосуществования с ними, для экспертов раду осуществления аудита, разработки стандартов безопасности, для того кто запускает систему (deployer) прозрачность позволяет добиться согласия с аудиторией и в некоторых случаях побудить ее к тем или иным действиям.[1] Несмотря на то, что все эти сферы взаимосвязаны, мы сосредоточимся в первую очередь на прозрачности для экспертов и для самих разработчиках. Такое ограничение связано не столько с ограничением формата статьи, сколько со своеобразным эффектом наблюдателя в отношении данной проблемы. В виду уже указанного разрыва между разными участниками вся проблема разворачивается по-разному в зависимости от того, кого мы примем за отправную точку: разработчика, пользователя, общество, того, кто запустил систему. Однако прозрачность как раз и является способом установления контакта между этими сферами. Разработчики и эксперты могут быть наиболее подготовленными на сотрудничество. Выработка стандартов документации является тем методом преодоления разрыва, который предлагает данное выступление. Для этого необходимо выработать некоторую систему рекомендации инженерам, которая позволила бы сделать их труд прозрачным для общества и для этического анализа. Инженеры как никто другой знают внутренние устройства ИИ. В данном случае мы говорим не только об интеллектуальном уровне понимания, но и о более глубоком и не дискурсивном уровне, который приходит с опытом успешного решения поставленных задач.
Поэтому необходимо выработать методологию прозрачного ИИ. Это может быть некоторая система логирования алгоритмов, некоторые особые правила технической документации. Причем последнее, должно быть более осуществимым, потому что инженеры и так учат правильно технической документации. По существу, данный подход является этическим дополненным к уже существующему тестово-ориентированным подходом к разработке.
Нужно, чтобы разработчики сами делали систему прозрачной и понятной для общества. Для это необходимо сделать так, чтобы такого рода разработка была выгодной. Выгоды для разработчиков могут заключаться в имиджевых дивидендах фирмы. Она занимает более ответственную позицию по отношению к обществу, как следствие общество больше доверяет. Таким образом фирма снимает проблему страха перед всем новым. Этот эффект доверия может быть поддержан государством как особого рода добровольный знак качества. Второй выгодой является безопасность самого разработчика. Будучи неотъемлемой частью общества, он испытывает эффект от индустрии на себе. В конечном счете его так же будут возить БПТС, как и любого другого человека. Такая прозрачность может достигаться двумя способами, которые могут друг друга дополнять. Источником истины может быть как разработчик, так и сам алгоритм. В первом случае мы сталкиваемся с тем, что мы назвали этически ориентированной разработкой (ETDD), во втором с объяснимым ИИ (XAI). XAI является одним из методов установления прозрачности для пользователя. Этот метод позволяет не только дать пользователю решение, но и объяснить ему, почему такое решение было принято. Такой подход требует не только технических знаний, но и знаний в области психологии антропологии[2]. Данный подход развивается в первую очередь в отношении пользователя. Однако его можно применить и в отношении эксперта как более подготовленного пользователя.
По аналогии с разработкой через тестирование[3] можно говорить разработке через этические тесты. В случае TDD разработчик пишет тест до написания кода. Таким образом он не пишет код, который невозможно протестировать. В той или иной мере принцип верифицируемости как обязательного условия написания кода можно перенести и на этичность кода. В долгой перспективе через создание этических тестов (ETDD) приводит к значительным выгодам для всего общества и созданию ответственного ИИ, подхода, который по словам Nikki Pope главы департамента этики ИИ корпорации Nvidea основан на принципах прозрачности и честности. В последнем случае ИИ комментирует и обосновывает свои действия. Требования понятности и честности совершения операций искусственного интеллекта эта важное требование при создании XAI[4]
Разумным видится совмещения обоих подходов в своеобразную гибридную этику. Такая гибридность возможна благодаря гибридной антропологии БПТС. Важно озаботиться этим явлением уже сейчас, пока основная часть индустрии только формируется.
Антропологическое измерение Беспилотного Транспортного Средства (БПТС): гибридное существование.
БПТС меняет представление об агентности. Они смещают человека с позиции единственно возможного активного деятеля. Тем самым ставит под вопрос само понятие действия. Мы основываем действие на разуме и воле, однако созданный нами инструмент выходит за рамки инструмента и приобретает черты самостоятельности. Проблема, которую ставит перед нами данное явление, можно обозначить как вопрос, насколько оправдано мнение что ИИ действует произвольно, или в нем всего лишь опосредованно представлены воля человека или человечества. Видится, что машина не может быть полностью автономна[5].
Но и человек по видимости теряет абсолютную монополию на действие. «Помимо улучшения повседневной мобильности, автономное вождение трансформирует культурные предубеждения в сторону гибридного будущего, где искусственный и человеческий интеллект обеспечат безопасное окружение для будущих поколений[6].
В случае с БПТС мы все-таки представляем себе, кто является источником действия. БПТС доставляет человека туда, куда он хочет, хотя маршрут во многом выбирает она самостоятельно. Здесь пока не идет речь о агентности БПТС скорее стоит иметь в виду сотрудничество человека и робота[7]
Ограничение БПТС как агента этики.
Принятие машиной решения связана с трояким вызовом. Это то, что машина должна учитывая технические ограничения машины, какая неопределенность принятия решения приемлема, какие компромиссы приемлемы[8]. Те логика и этика возникшие в отношении человека не может быть прямо перенесены машину. Более того необходимо учитывать, что в случае неизбежного столкновения разные этические системы дают разный результатpp[9].
У человека есть здравый смысл, по умолчанию, а у БПТС его нет, что не позволяет ей действовать этично в условиях неопределенности[10] Можно сказать, что машина действует лучше человека в ситуации, когда все идет по плану, но становиться непредсказуемой, когда возникает угроза аварии. Но именно в таком случае более всего важно правильное решение.
Это накладывает дополнительную ответственность на разработчика. Поэтому в отношении автомобиля более очевидно, что люди разрабатывающие алгоритмы несут за него ответственность, поэтому автоматизация принятия этических решений является новой задачей для инженеров[11].
Поскольку безопасность, надежность, ответственность, конфиденциальность и кибербезопасность, все еще остаются [12, 13] , необходимо сделать прозрачным механизм принятия решения алгоритма. Этот процесс можно сравнить с компилированием машинного кода в высокоуровневый язык программирования. Такой подход можно осуществить по аналогии с тестовориетрованным подходом в программировании TDD этико-ориентированный подход будет учитывать все известные опасности алгоритмов (bias) и стремиться преодолеть их уже на стадии разработки. Однако остается вопросом, насколько прозрачным будет производитель относительно алгоритма столкновения[14 ].
В таком случае правила документирования зададут стандарт документов, что позволит сделать внутренние принципы функционирования БПТС доступными общественному обсуждению. Такого рода диалог видится конструктивным и если в нем будут принимать участия все общество, включая разработчиков то результатом такого обсуждения станет жизнеспособная система регуляции БПТС.
Результаты.
Автомобиль продукт общества необходимо не просто научить его обрабатывать информацию от людей, а понимать ее в таком случае авто будет более безопасен и надежен в нестандартных ситуациях, для понимание необходимы гуманитарные науки. На практике осуществлен подход, при котором антропологию используется для данной задачи. Этика как глубинная система регуляций может иметь больше предсказательной ценности. Так как выделяет не только насущный обычай, диапозитивы мышления, но и более глубокие ценности нормы и идеалы. Понимаемая в духе практической антропология этика может обеспечить прорыв в технологической сфере.
Ограничения.
Статья носит методологический характер и не предлагает конкретных этических тестов или формулировок, или имплементации этических законов в коде БПТС, так же имея в виду бурный рост индустрии авторы статьи не решаются дать однозначный ответ о природе и агентности БПТС те о его антропологический статус.
Обсуждения.
Мы предлагаем организовать публичные обсуждения и практические семинары. В которые будут вовлечены представители различных дисциплин. Результатом деятельности данного кружка должна стать выработка искомых принципов, подходов, формулировок и практик. Площадкой для этого обсуждения может стать Научно-практический семинар кафедры философской антропологии Института философии СПбГУ. «Лаборатория цифровой философии»[15 ]
Выводы
Можно сделать вывод о том, что для урегулирования проблем ИИ необходимо понять статус ИИ, его субъектность и, возможно, психологию. Сотрудничество человека и ИИ имеет гибридный характер поэтому существующие методы регулирования нуждаются в корректировке как техническими специалистами, так и представителями гуманитарных наук. Как комплексная проблема это требует комплексного решения. Основой для диалога и выработки объективного решения является прозрачность несмотря на то, что конкретное содержание понятия представляет серьезную теоретическую, практическую и практическую проблему.
- Weller A. Challenges for transparency. – 2017. С 56
- DW G. D. A. DARPA’s explainable artificial intelligence program //AI Mag. – 2019. – Т. 40. – №. 2. – С. 44.
- Beck K. Test driven development: By example. – Addison-Wesley Professional, 2022
- Boddington P. Normative modes //The Oxford handbook of ethics of AI. – 2020. – С. 134
- Huhtamo, Erkki. 2020. «The Self-Driving Car: A Media Machine for Posthumans? ». In: Andrés Burbano; Ruth West (coord.) «AI, Arts & Design: Questioning Learning Machines». Artnodes, no. 26: 1-14. UOC. [Accessed: dd/mm/yy]. http://doi.org/10.7238/a.v0i26.3374
- Technological and ethical aspects of autonomous driving in a multicultural society Aurel Mihail TITU “Lucian Blaga” University from Sibiu Sibiu, Romania The Academy of Romanian Scientists, 54, Splaiul Independenței, Sector 5, Bucharest, Romania mihail.titu@ulbsibiu.ro Alexandru STANCIU Microsoft Romania Digital Specialist/Project Manager Bucharest, Romania alexd975@yahoo.com Liviu MIHAESCU Faculty of Economic Science Calea Dumbravii nr.17, Sibiu, Romania liviu.mihaescu@ulbsibiu.r]».
- The ethics of crashes with self‐driving cars: A roadmap, II Sven Nyholm
- Ethical machine decisions and the input‑selection problem Björn Lundgren1,2,3 Received: 29 March 2021 / Accepted: 30 June 2021 / Published online: 30 August 2021
- Borenstein, J., Herkert, J., & Miller, K. (2017). Self-Driving Cars: Ethical Responsibilities of Design Engineers. IEEE Technology and Society Magazine, 36(2), 67–75. doi:10.1109/mts.2017.2696600.
- From driverless dilemmas to more practical commonsense tests for automated vehicles Julian De Freitasa,1, Andrea Censib , Bryant Walker Smithc,d, Luigi Di Lilloe , Sam E. Anthonyf , and Emilio Frazzolib Edited by Susan T. Fiske, Princeton University, Princeton, NJ, and approved January 17, 2021 (received for review June 5, 2020)
- Jason Millar (2016) An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars, Applied Artificial Intelligence, 30:8, 787-809, DOI: 10.1080/08839514.2016.1229919
- Huhtamo, Erkki. 2020. «The Self-Driving Car: A Media Machine for Posthumans? ». In: Andrés Burbano; Ruth West (coord.) «AI, Arts & Design: Questioning Learning Machines». Artnodes, no. 26: 1-14. UOC. [Accessed: dd/mm/yy]. http://doi.org/10.7238/a.v0i26.3374
- Yeo S. J. I., Lin W. Autonomous vehicles, human agency and the potential of urban life //Geography Compass. – 2020. – Т. 14. – №. 10. – С. e12531
- Borenstein, J., Herkert, J., & Miller, K. (2017). Self-Driving Cars: Ethical Responsibilities of Design Engineers. IEEE Technology and Society Magazine, 36(2), 67–75. doi:10.1109/mts.2017.269660
- https://philosophy.spbu.ru/ru/609-laboratoriya-tsifrovoj-filosofii.html