Группа нынешних и бывших сотрудников OpenAI и Google DeepMind просят предоставить им защиту, чтобы они могли рассказать об угрозе технологий, связанных с искусственным интеллектом, которые создают эти и другие компании. Об этом сообщает Bloomberg.
«До тех пор, пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут призвать их к ответу перед обществом. Тем не менее обширные соглашения о конфиденциальности не позволяют нам высказывать наши опасения, за исключением тех самых компаний, которые, возможно, не в состоянии решить эти проблемы», — говорится в открытом письме.
Письмо «Право предупреждать о продвинутом искусственном интеллекте» подписали 13 человек, работавших в компаниях, семь из которых указали свои имена.
Подписанты, в частности, обеспокоены тем, что ведущие компании в области искусственного интеллекта «имеют сильные финансовые стимулы, чтобы избежать эффективного надзора». При этом, по их словам, у компаний есть «лишь слабые обязательства» по информированию общественности об истинных опасностях своих систем искусственного интеллекта.
В письме говорится, что обычные меры защиты информаторов недостаточны, поскольку касаются незаконной деятельности, в то время как многие риски, грозящие сотрудникам, еще не урегулированы.
Вероятность достижения AGI к 2027 году составляет 50%, заявил бывший сотрудник OpenAI Даниэль Кокотайло, который уволился в начале этого года.
«На самом деле ничто не мешает компаниям создавать AGI и использовать его для различных целей, и нет большой прозрачности. Я уволился, потому что чувствовал, что мы не готовы. Мы не были готовы к этому как компания, и мы как общество не были готовы к этому, и нам нужно было действительно инвестировать гораздо больше в подготовку и обдумывание последствий», — сказал он.