Банки Украины: Все Киев Харьков Днепропетровск Одесса |
Основатель SpaceX и Tesla Motors профинансирует 37 проектов по обеспечению безопасности искусственного интеллекта
07.07.2015 в 11:12
Основатель и глава SpaceX и Tesla Motors Илон Маск ранее уже делился с общественностью своими опасениями по поводу искусственного интеллекта, призывая мировых светил науки, исследовательские институты и компании из области робототехники первым делом задуматься о безопасности. Он, со своей стороны, пожертвовал $10 млн в фонд некоммерческой организации Future of Life Institute (FLI), главная миссия которой – «смягчение рисков, которые грозят человечеству в будущем». Данная организация, в числе прочего, занимается исследованием потенциальных угроз, которые несет в себе искусственный интеллект. На днях Институт назвал 37 научно-исследовательских групп, отобранных среди 300 претендентов, которые получат гранты на собственные проекты по обеспечению безопасности искусственного интеллекта. Полный список получателей грантов, а также подробное описание их проектов можно найти на официальном сайте Института. Между исследовательскими командами будет распределено в общей сложности около $7 млн, предоставленные Маском и организацией Open Philanthropy Project. Работы по большинству проектов начнутся уже в сентябре и будут финансироваться Институтом в течение трех лет. Оставшиеся $4 млн будут распределены позже, как только организация выделит наиболее перспективные проекты. Хотя данная «инициатива» преподносилась многими тематическими ресурсами в качестве создания инструмента предотвращения воплощения в жизнь сценария такой культовой ленты, как «Терминатор», в настоящее время Институт пытается перевести обсуждение в другое, более правильное, русло. «Опасности с воплощением сценария «Терминатора» не то чтобы не существует, это попросту отвлекает от реальных проблем, которые несет в себе искусственный интеллект», – говорится в заявлении президента FLI Макса Тегмарка. – «Мы сконцентрированы на реальных проблемах, решением которых займутся 34 лучших команд исследователей». Это абсолютно справедливое утверждение: руководство Института мыслит очень практично – оптимизация воздействия ИИ на экономику (рост уровня безработицы и дальнейшее увеличение неравенства доходов) и решение ряд этических дилемм (выбор наиболее оптимального «варианта» в неизбежной автокатастрофе). Тем не менее, немало проектов посвящены потенциальной проблемы восстаниям машин и уничтожения человечества роботами. Ранее Илон Маск отметил, что у ИИ есть потенциал стать «опаснее ядерного оружия». Основная цель FLI – предотвратить этот сценарий, удостоверившись, что ИИ находится под полным контролем и действует в интересах человечества. Похожие новости:
|
Для ВасНовостиГлавные новости
Авторизация |
© 2011-2024 информационное агентство «AllBanks.com.ua» При использовании материалов гиперссылка на AllBanks.com.ua обязательна. |
- О проекте - Реклама - Контакты |
|