Ахмед Садулаев
Уход из OpenAI главного научного сотрудника Ильи Суцкевера привел к роспуску команды, которая занималась долгосрочными рисками, связанными с развитием искусственного интеллекта. Группа, которая должна была защитить человечество от ИИ, проработала меньше года.
Как пишет CNBC со ссылкой на осведомленный источник, некоторые члены команды переводятся в другие подразделения внутри компании.
OpenAI объявила о создании команды Superalignment в июле прошлого года. В сообщении компании отмечалось, что подразделение в течение следующих четырех лет должно решить проблему управления ИИ-системами, «которые намного умнее нас».
«Но огромная сила сверхразума также может быть очень опасной и привести к лишению человечества возможностей или даже к его исчезновению», — говорилось в сообщении.
Разработчик ChatGPT планировал направить 20% имеющихся вычислительных ресурсов на работу с рисками, а возглавили команду по защите от рисков, связанных с ИИ, Илья Суцкевер и Ян Лейке.
Лейке также недавно объявил об уходе из OpenAI. Бывший топ-менеджер компании заявлял, что не разделяет взгляды руководства на приоритеты развития компании. По его мнению, OpenAI должна делать безопасность приоритетным направлением в разработке генеративного ИИ.
На этой неделе сооснователь OpenAI Илья Суцкевер написал в своем X-аккаунте, что покидает компанию после десяти лет работы. Место главного научного сотрудника займет Якуб Пачоцки, который ранее был директором по научным исследованиям.
Фото: Unsplash
Все сервисы и компании, связанные с релокацией, на одной карте
Источник: rb.ru