«Мысли» под прицелом: нейросетевые прорывы России — новый вызов кибербезопасности?

«Мысли» под прицелом: нейросетевые прорывы России — новый вызов кибербезопасности?
Изображение: Газинформсервис
Искусственный интеллект стремительно выходит за рамки фантастики: российские ученые сделали очередной шаг навстречу удивительным открытиям. Разработка технологии, позволяющей «слышать» мысли человека через электроэнцефалограмму (ЭЭГ), не только открывает новые горизонты в медицине и коммуникациях, но и заставляет задуматься о будущем, которое предрекают пионеры AGI — общего искусственного интеллекта.

Однако, как отмечает Al-консультант, специалист аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина, за впечатляющими достижениями стоят и серьёзные вызовы кибербезопасности.

«Заявление Демиса Хасаббиса о появлении в обозримом будущем (примерно в ближайшие 5-10 лет) того самого AGI, "сильного ИИ", способного превзойти человека, иллюстрирует амбициозные ожидания ключевых игроков в данной сфере, — говорит Буторина. — Прогноз исполнительного директора DeepMind можно считать смелым, однако он укладывается в общие тренды и предположения футурологов и исследователей, отмечающих стремительный рост технологий ИИ, способных привнести трансформацию во многие сферы нашей жизни».

Напомним, что Институт физиологии имени И. П. Павлова РАН при поддержке национального проекта «Наука и университеты», представил миру технологию, способную анализировать паттерны электрической активности мозга и преобразовывать их в речь. Этот научный прорыв, по сути, превращает давние мечты о «чтении мыслей» в реальность, предлагая надежду людям с нарушениями речи и открывая новые возможности для создания систем «мозг-компьютер».

Вместе с тем эксперт Буторина предостерегает: «Наряду с этим данная задача является для учёных достаточно трудоёмкой и без конкретных временных рамок для её реализации, требующей готовности общества к такому технологическому прогрессу и его последствиям, этического регулирования и вопросов безопасности».

Потенциальные риски, связанные с развитием AGI, нельзя игнорировать. Потеря контроля над сверхразумным ИИ, радикальные изменения на рынке труда, этические дилеммы и, конечно, возможность использования AGI в злонамеренных целях, включая кибератаки, — всё это требует пристального внимания и заблаговременного регулирования.

«Способность "читать мысли" – это фантастика, которая уже в наши дни становится реальностью: разработки AGI ведут, среди прочего, к новым способам обработки и анализа данных, в том числе для коммуникаций, через считывание и интерпретацию паттернов мозговой активности. А это значит, что возникают серьёзные этические и правовые вопросы, связанные с защитой приватности и конфиденциальностью личной информации. Данная проблема требует внимания и регулирования на законодательном уровне», — подчёркивает эксперт.

Тематики: Безопасность

Ключевые слова: информационная безопасность, Искусственный интеллект, Газинформсервис