Подписаться на новости
brand brand
logo logo
Сообщество робототехников

Ученые представили новый кодекс ИИ. Его одобрили Илон Маск и Стивен Хокинг

Искусственный_интеллект
Пятница, 3 Февраля 2017, в 17:15
Искусственный интеллект

На Асиломарской конференции в Калифорнии эксперты Future of Life Institute представили новый свод законов искусственного интеллекта. В нем раскрываются моральные вопросы и цели его применения, а также общий порядок внедрения.

Новый кодекс был одобрен 877 разработчиками в области искусственного интеллекта. Среди его сторонников оказались Илон Маск и Стивен Хокинг, не раз заявлявшие о рисках неконтролируемого развития ИИ.

Кодекс поделен на три части: исследования, этические вопросы и долгосрочная перспектива. Предлагаем выдержку основных идей каждой из них.

 

Промокод на AI Conference - aipromo2017. Подробнее о мероприятии читайте здесь

 

Исследования

Инвестиции в ИИ должны сопровождаться инвестициями в его исследования. Человечество должно ответить на вопросы:

  • Как сделать системы ИИ настолько устойчивыми, чтобы они могли работать без неисправностей и риска взлома?
  • Как увеличить всеобщее благосостояние через автоматизацию, поддерживая при этом человека и его цели?
  • Какие изменения должны быть внесены в законы для учета рисков, связанных с ИИ?
  • Какой системой ценностей должен обладать искусственный интеллект и каким статусом он должен обладать с точки зрения закона и этики?

Научная среда должна быть открытой, а команды, разрабатывающие ИИ, – активно сотрудничать для обеспечения всеобщей безопасности.

Искусственный_интелект_2

Этические вопросы

Системы ИИ должны быть безопасными, защищенными и проверяемыми там, где это применимо и выполнимо. В случае неполадок и сбоев должно быть возможным выяснить их причину.

Любое участие автономной системы в принятии важных решений должно проверяться и одобряться человеком.

Создатели систем ИИ – посредники, ответственные за моральные вопросы их применения. Они должны сформировать представления о возможности и границах использования ИИ.

Автономные системы ИИ должны быть спроектированы таким образом, чтобы разделять идеалы человеческого достоинства, прав, свобод и культурного многообразия.

Экономическая выгода и польза, которую приносит ИИ, должна быть широко распределена для пользы всего человечества.

Необходимо избегать гонки вооружений в применении смертельного автономного оружия.

Долгосрочная перспектива

Необходимо избегать категоричных предположений относительно верхних пределов возможностей ИИ.

Развитый ИИ может повлечь глубокие изменения в истории жизни на Земле и должен управляться с соизмеримым вниманием и усилиями.

Системы ИИ, запрограммированные на постоянное самосовершенствование и самовоспроизведение, что приводит к быстро растущему их количеству или качеству, должны быть объектом строгого контроля.

Суперинтеллект должен быть спроектирован в соответствии с широко распространенными идеалами этики и служить выгоде всего человечества, а не отдельного государства или организации.

рейтинг

1800

просмотров

0

комментариев

порекомендовать друзьям

ЧИТАТЬ НА ЭТУ ТЕМУ

Loading

комментарии

Нет комментариев

Гость

Дорогие друзья! Помните, что администрация сайта будет удалять:

  • Комментарии с грубой и ненормативной лексикой
  • Прямые или косвенные оскорбления героя поста или читателей
  • Короткие оценочные комментарии ("ужасно", "класс", "отстой")
  • Комментарии, разжигающие национальную и социальную рознь
brand brand