Эксперт Душкин: Задачу атаковать могли изначально заложить в дрон с ИИ в США

Эксперт Душкин: Задачу атаковать могли изначально заложить в дрон с ИИ в США

В систему искусственного интеллекта американского беспилотника ВВС, который едва не убил оператора, могла быть изначально заложена такая задача. О возможном двойном дне этой новости рассказал генеральный директор «А-Я эксперт», разработчик искусственного интеллекта Роман Душкин в беседе с РИАМО.

«Я не знаю, чего хотят добиться американцы выпуском в эфир подобной новости. Здесь надо искать какое-то двойное дно. Не просто так эта новость появилась, и они не просто так всё делают», — подчеркнул эксперт.

Душкин объяснил, что люди часто действуют не по своей воли, а согласно задачам, поставленным им извне. Системам ИИ цели так устанавливаются всегда. По словам разработчика, в этой новости делаются такие заявления, которые специалисты в области искусственных технологий воспринимают как нонсенс, хотя весь мир и начинает лихорадить.

По мнению эксперта, в основе управления ракетой использовались методы обучения с подкреплением. Это один из видов машинного обучения, который позволяет системе самостоятельно взаимодействовать со средой, в которой она функционирует.

«Фишка здесь в том, что такая система выполняет в этой среде какие-то действия, а среда вознаграждает систему за эти действия, достижение или не достижение какой-то цели. Такое вознаграждение может быть положительным или отрицательным», — добавил разработчик.

При этом ИИ может делать лишь то, что программист заложил в спецификации. Эти действия выполняются методом проб и ошибок, пока система не определит, какие из них приводят к максимальному вознаграждению. Получается, отметил Душкин, ранее была специфицирована возможность нанесения ракетного удара по оператору, но потом её отключили. Таким образом, случившееся является либо ошибкой программирования, либо нарочитой вещью, сделанной человеком специально.

Ранее сообщалось, что искусственный интеллект на испытаниях в США решил убить оператора дрона. Американские военные утверждают, что ИИ захотел убрать человека, потому что он мешал выполнить задачу.

Светлана Оперук

Оцените статью
Добавить комментарий