ЕС хочет закрепить иерархию человека и искусственного интеллекта

Новые указания, подготовленные Европейским парламентом, регламентируют правила разработки технологий «искусственного интеллекта». Они содержат ряд требований, законов и этических норм, которые ИИ обязан соблюдать. Также Директива говорит о том, что ИИ разрабатывается для поддержки человека, а не для руководства над ним.

В поддержку всего живого

Черновой вариант Директивы об этичных методах разработки искусственного интеллекта опубликован ЕС.

В документе отмечается, что разработкам в полной мере необходимо «соблюдать закон, этические нормы и быть надежным», исполняя каждый из пунктов в равной степени. При обнаружении каких-либо несоответствий, общество обязано незамедлительно отреагировать, для скорейшего исправления недостатка. По словам одного из челнов еврокомиссии, такие меры необходимы для того, чтобы современное общество могло что-то выиграть от технологий, но такое возможно только в случае полного к ним доверия. Документ состоит из 41 страницы, на которых можно найти отметки о существующей необходимости для удостоверения в «чистых помыслах» создаваемых систем ИИ, чтобы сделать систему человекоцентричной, нацеленной целиком и полностью на служение человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе.

Технологии на службе человечества

Документ выделяет семь основных пунктов, по которым разработка ИИ может считаться этически верной. Искусственный интеллект должен быть создан в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; пользователи, в свою очередь, обязаны иметь полный контроль над своими данными, и эти данные, ни в коем случае, не должны использоваться для причинения им вреда. Также в тексте нововведения подчёркивается, что у общественности должно быть полное представления о деятельности, ведущейся в сфере разработок ИИ, а также возможность проверить выполнение ключевой идеи разработок: совершенствование общества и окружающей среды. Помимо этого будут учитываться справедливость и многообразие, а также специальные механизмы, разработанные для обеспечения «ответственности ИИ-систем» за конечный результат проделанной ими работы.

Существующая редакция директивы — только черновой вариант. В скором времени документ будет передан для изучения представителям индустрии и не исключено, что по итогам консультаций с экспертами предлагаемые правила могут существенно поменяться. Конечная цель ЕС — выработка унифицированных правил, работающих для всех игроков этого рынка. По мнению экспертов рынка, сценарий, которого пытаются избежать представители ЕС — превращение искусственного интеллекта из помощника человека в его врага — не новый сценарий из разряда научной фантастики. Но в современном мире, где человечество вплотную приблизилось к созданию такого искусственного интеллекта, риск гораздо более реален, чем никогда прежде. Поэтому идея внедрения в ИИ этического компонента на уровне разработки — безусловно, правильное решение. Технологические компании все чаще работают над проектами связанными с машинным обучением и ИИ, поэтому эти аспекты сейчас очень актуальны. Некоторые проблемы могут возникнуть в связи с разными культурными кодами и базовыми предоставлениями об этике у разных национальностей, но это не должно стать камнем преткновения на пути разработки.

Автор: Александр Абрамов.

Тематики: Регулирование, Инновации

Ключевые слова: регулирование, Искусственный интеллект