Сотрудники корпорации совместно с учеными сформулировали пять проблем, которые необходимо решить разработчикам искусственного интеллекта.
Принципы были разработаны компаниями Google и OpenAI совместно с Калифорнийским университетом в Беркли и Стэнфордским университетом, сообщает nplus1.ru.
Статья, опубликованная в Сети, призвана конкретизировать потенциальные опасности, которые необходимо учитывать при разработках искусственного интеллекта (ИИ).
— избегание нежелательных побочных эффектов (например, робот может разбить вазу, если это ускорит процесс уборки);
— избегание жульничества (тот же робот может просто прикрыть мусор, а не убрать его);
— гибкая потребность в надзоре (например, если робот может посоветоваться с человеком при выполнении задачи, он не должен надоедать вопросами);
— безопасное обучение (упомянутому роботу-уборщику не стоит экспериментировать с протиркой розеток мокрой тряпкой);
— устойчивость к смене деятельности (например, работы по уборке в цехе металлообработки и в химической лаборатории принципиально различаются).
Решить указанные проблемы можно как с помощью человеческого надзора при обучении роботов, так и ограничивая пространство деятельности ИИ. Тем не менее исследователи признают, что этого недостаточно и необходимы ответственные, открытые и междисциплинарные усилия разработчиков, подчеркивают в Google.