Попытки обезопасить ИИ

Компания Safe Superintelligence (SSI), основанная бывшим главным научным сотрудником OpenAI Ильей Суцкевером, привлекла $1 млрд для разработки безопасных систем искусственного интеллекта, которые намного превосходят человеческие возможности, передает Reuters.

Компания планирует использовать деньги для приобретения вычислительных мощностей, серверов и найма лучших специалистов. В SSI сейчас работают 10 человек.

"Для нас важно быть окруженными инвесторами, которые понимают, уважают и поддерживают нашу миссию, которая заключается в том, чтобы сделать прямой шаг к безопасному сверхразуму и, в частности, потратить пару лет на исследования и разработку продукта, прежде чем выводить его на рынок", - сказал Reuters компаньон Суцкевера Гросс.

Безопасность ИИ - горячая тема на фоне опасений, что неконтролируемый ИИ может действовать вопреки интересам человечества.

37-летний Суцкевер - один из самых влиятельных технологов в области ИИ. Он был одним из первых сторонников гипотезы, что модели ИИ улучшат производительность при наличии огромных объемов вычислительной мощности, дав старт волне инвестиций и заложив основу для известных проектов вроде ChatGPT.

dw.com
0
6 сентября в 16:00
Прочитано 74 раза