Четверг, 25.04.2024, 04:35
Варган-Наития
Главная Регистрация Вход
Приветствую Вас, Гость · RSS
Меню сайта
Категории раздела
Концепция Общественной Безопасности [397]
Общество [1088]
Политика [1047]
Экономика [328]
Наука и Техника [875]
Прошедшее [95]
Военные действия [528]
Террор [253]
Происшествия [148]
Миропонимание [313]
Религиозная власть [137]
Человек [257]
Здоровье [278]
Техноген [76]
Экология [64]
Космос [55]
Солнечная система [84]
Планета Земля [102]
Стихийные аномалии [159]
Природные явления [104]
Землетрясения [519]
Наводнения [112]
Извержения вулканов [53]
Пророчества [12]
Исток-Исход-Империя [461]
Ченнелинги [209]
Влияние Иных [486]
Иные цивилизации [73]
НЛО [23]
Музыка [6]
Мультфильмы [4]
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0
Наш опрос
Нужна ли в паспорте гражданина РФ строка "национальность"?
Всего ответов: 8

 
Главная » 2018 » Май » 29 » Илон Маск, Стивен Хокинг и сотни других экспертов подписали список из 23 принципов развития ИИ
11:34
Илон Маск, Стивен Хокинг и сотни других экспертов подписали список из 23 принципов развития ИИ


Искусственный интеллект — это удивительная технология, которая изменяет мир, но каждый, кто смотрел фильм «Терминатор», знает, что продвинутый ИИ может быть опасен. Именно поэтому Илон Маск, Стивен Хокинг и сотни других исследователей и IT-экспертов подписали список из 23 основных принципов, которых стоит придерживаться при разработке ИИ, дабы она продвигалась в безопасном, продуктивном и нравственном направлении.

Данный список был составлен на конференции Beneficial AI 2017. Эксперты в области робототехники, физики, экономики, философии и т.д. горячо обсуждали безопасность ИИ, экономическое влияние технологии на занятость людей и многие другие темы. Для включения каждого пункта в список нужно было получить согласие 90% участников.

В результате участники составили и подписали список из 23 пунктов, которые затрагивают темы от исследований данных до развития суперразума. Всего список подписали почти 1000 исследователей в области ИИ и робототехники и около 1500 экспертов в других сферах, включая CEO Tesla Илона Маска и знаменитого физика Стивена Хокинга.

Некоторые принципы — например, прозрачность и общий доступ всех компаний к исследованиям — будут соблюдены с меньшей вероятностью, но если мы будем придерживаться хотя бы части из них, то разработка ИИ вряд ли приведёт к восстанию Skynet.

Ниже вы можете ознакомиться с переведённым списком (который, к слову, называется Asilomar AI Principles):

Научно-исследовательские вопросы

1. Целью исследований в области искусственного интеллекта должно быть создание не бесконтрольного разума, а выгодного для всего общества инструмента.

2. Инвестиции в ИИ должны производиться совместно с финансированием исследований по обеспечению полезности использования технологии, что позволит давать более точные и обобщенные ответы на возникающие вопросы в области информатики, экономики, права, этики и обществоведения, в частности:

  • Как обеспечить высокую надежность систем ИИ, чтобы они выполняли поставленные задачи без сбоев и угрозы быть взломанными?
  • Каким образом при помощи автоматизации мы можем прийти к необходимой цели, поддерживая человеческие ресурсы и заинтересованность?
  • Как грамотно обновить правовую систему, обеспечив справедливость по современным канонам и учтя появление ИИ?
  • Какой правовой и этический статус получит ИИ?

3. Обеспечение конструктивного и равного взаимодействия исследователей и политиков.

4. В обществе исследователей должна соблюдаться полная открытость и прозрачность.

5. Исследователи ИИ должны всячески сотрудничать между собой во избежание нарушения стандартов безопасности.

Нравственные вопросы

6. Системы искусственного интеллекта должны быть безопасными и надежными на протяжении всего эксплуатационного срока.

7. Если система ИИ причинит вред, должна быть возможность выяснения причины.

8. Любое вмешательство автономной системы в судебные решения должно быть санкционированным и подлежать отчетности в случае проверки специалистами.

9. Ответственность за причинённый вред, намеренное создание опасной ситуации, вызванное ошибкой конструкции или программного обеспечения ляжет на плечи разработчиков и инженеров.

10. Все автономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение не противоречили общечеловеческим ценностям.

11. ИИ должен быть спроектирован и использован так, чтобы быть совместимым с идеалами человеческих достоинства, прав, свобод и культурного разнообразия.

12. Данные, возникшие в процессе использования ИИ человеком, должны быть доступны в дальнейшем для этого человека.

13. При работе с персональными данными ИИ не должен необоснованно ограничивать реальные или мнимые свободы людей.

14. Технологии ИИ должны приносить пользу и быть доступными как можно большему количеству людей.

15. Экономические ценности, созданные ИИ, должны быть доступны всему человечеству.

16. Человек всегда должен иметь выбор: принять решение самостоятельно или поручить это ИИ.

17. Действия ИИ должны идти на пользу человеческой деятельности, а не во вред.

18. Необходимо всеми силами избегать гонки автономных видов вооружений.

Долгосрочные вопросы

19. Мы должны абсолютно трезво оценивать предел возможностей ИИ во избежание нерациональных затрат ресурсов.

20. Развитие ИИ будет интенсивным, поэтому технология должна быть под контролем, дабы не вызвать необратимых реакций.

21. Риски, особенно крупномасштабные, должны быть спланированы таким образом, чтобы обеспечивать минимизацию возможного ущерба.

22. Системы ИИ, способные к саморазвитию и самовоспроизведению, должны находиться под особо строгим контролем.

23. Суперразум должен будет служить всему человечеству, а не конкретной частной организации или государству.

Перевод статьи «Stephen Hawking and Elon Musk Endorse 23 Principles for AI»

Категория: Наука и Техника | Просмотров: 309 | Добавил: Vargan | Рейтинг: 0.0/0
Всего комментариев: 2
29.05.2018 @ 11:40
Варган (Vargan) [Материал]
аватар Vargan
29.05.2018 @ 11:39
Варган (Vargan) [Материал]
аватар Vargan
Имя *:
Email *:
Код *:
Варган-Наития © 2024
Вход на сайт
Поиск
Календарь
«  Май 2018  »
ПнВтСрЧтПтСбВс
 123456
78910111213
14151617181920
21222324252627
28293031
Сайты
  • Муджи в России
  • Культ Ура и Культ Тура
  • НАУКА И ЖИЗНЬ
  • КОБ-образование
  • ДОТУ
  • Концепция общественной безопасности
  • ВПП Курсом Правды и Единения
  • Новый образовательный стандарт
  • Мера: Форум сторонников КОБ
  • Закон времени
  • МедиаМера
  • Вики-КОБ
  • Информационно Аналитический Центр (ИАЦ)