О серьезных рисках искусственного интеллекта предупреждают работники OpenAI
Сотрудники компаний-разработчиков ИИ-стартапа хотят получить защиту, чтобы высказываться о «серьезных рисках» этого продукта.
Нынешние и бывшие сотрудники OpenAI и Google DeepMind говорят, что «широкие соглашения о конфиденциальности не позволяют им высказывать свои опасения» по поводу «серьезных рисков» технологий, которые создают эти и другие компании. Об этом пишет Bloomberg.
«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих людей, кто может призвать их к ответу перед общественностью», – говорится в публичном письме, которое подписали 13 человек, работавших в компании, семь из которых указали свои имена.
Отмечается, что в последние время OpenAI столкнулась с противоречиями по поводу своего подхода к защите искусственного интеллекта после роспуска одной из самых высокопоставленных команд безопасности и серии увольнений сотрудников. Их обязали подписать соглашение, которое, по сути, не позволяет выступать против ИИ-стартапа.
«Широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения, за исключением тех самых компаний, которые, возможно, не решают эти проблемы», – говорится в сообщении.
Группа нынешних и бывших сотрудников OpenAI и Google DeepMind призывают к защите от возмездия за то, что они делятся опасениями по поводу «серьезных рисков» технологий, которые создают эти и другие компании.
В частности, Леопольд Ашенбреннер, экс-инженер OpenAI, написал 165-страничный документ, где утверждает, что к 2027 году мы достигнем AGI (ИИ, равный человеческому). Он также считает, что этот AGI быстрыми темпами сможет дорасти до уровня ASI (ИИ, превосходящий человеческий).
Как писал СПЖ, «Отец Иустин»: В РКЦ запустили приложение на основе ИИ для ответов о вере.