О серьезных рисках искусственного интеллекта предупреждают работники OpenAI

05 Июня 15:59
2230
OpenAI — американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта. Фото: Майкл Дуайер/AP OpenAI — американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта. Фото: Майкл Дуайер/AP

Сотрудники компаний-разработчиков ИИ-стартапа хотят получить защиту, чтобы высказываться о «серьезных рисках» этого продукта.

Нынешние и бывшие сотрудники OpenAI и Google DeepMind говорят, что «широкие соглашения о конфиденциальности не позволяют им высказывать свои опасения» по поводу «серьезных рисков» технологий, которые создают эти и другие компании. Об этом пишет Bloomberg.

«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих людей, кто может призвать их к ответу перед общественностью», – говорится в публичном письме, которое подписали 13 человек, работавших в компании, семь из которых указали свои имена.

Отмечается, что в последние время OpenAI столкнулась с противоречиями по поводу своего подхода к защите искусственного интеллекта после роспуска одной из самых высокопоставленных команд безопасности и серии увольнений сотрудников. Их обязали подписать соглашение, которое, по сути, не позволяет выступать против ИИ-стартапа.

«Широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения, за исключением тех самых компаний, которые, возможно, не решают эти проблемы», – говорится в сообщении.

Группа нынешних и бывших сотрудников OpenAI и Google DeepMind призывают к защите от возмездия за то, что они делятся опасениями по поводу «серьезных рисков» технологий, которые создают эти и другие компании.

В частности, Леопольд Ашенбреннер, экс-инженер OpenAI, написал 165-страничный документ, где утверждает, что к 2027 году мы достигнем AGI (ИИ, равный человеческому). Он также считает, что этот AGI быстрыми темпами сможет дорасти до уровня ASI (ИИ, превосходящий человеческий).

Как писал СПЖ, «Отец Иустин»: В РКЦ запустили приложение на основе ИИ для ответов о вере.

Если вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter или Отправить ошибку, чтобы сообщить об этом редакции.
Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите Ctrl+Enter или эту кнопку Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите эту кнопку Выделенный текст слишком длинный!
Читайте также