Лидеры в области ИИ сравнили опасность своих технологий с ядерной войной и пандемией.
Лидеры в области искусственного интеллекта предупредили, что их разработки могут нести смертельную опасность для человечества. Об этом сообщается в заявлении организации Center for AI Safety (Центр безопасности ИИ).
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — сказано в заявлении.
Открытое письмо подписали уже свыше 300 человек. В их числе — генеральный директор OpenAI Сэм Альтман, сооснователь Google DeepMind Демис Хассабис и генеральный директор Anthropic Дарио Амодеи.
Организация CAIS существует для обеспечения безопасной разработки и развертывания ИИ.
«Риск ИИ стал глобальным приоритетом, стоящим рядом с пандемиями и ядерной войной. Несмотря на свою важность, безопасности ИИ по-прежнему пренебрегают из-за высоких темпов развития ИИ.
В настоящее время общество плохо подготовлено к управлению рисками, связанными с ИИ. CAIS существует для того, чтобы вооружить политиков, лидеров бизнеса и весь мир пониманием и инструментами, необходимыми для управления рисками ИИ», — говорится на сайте организации.
В конце марта Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк в числе прочих призвали создателей ИИ остановить исследование мощных систем. Их обращение было опубликовано на сайте организации Future of Life.