А они точно обеспокоены "за риски для человечества"? Может их просто беспокоит то, что некто другой вырвался вперёд в этом направлении...? 😑 Илон Маск и более 1300 экспертов призвали приостановить разработку ИИ.
Свыше 1300 специалистов в области искусственного интеллекта и информационных технологий – а также Илон Маск – подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GTP-4 из-за «значительных рисков для общества и человечества». В воззвании, опубликованном некоммерческим Институтом будущего жизни, говорится, что многие команды исследователей ИИ вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто – даже их создатели – не способны понять, предсказать или уверенно контролировать».
«Поэтому мы призываем все ИИ-лаборатории немедленно прекратить как минимум на шесть месяцев обучение систем ИИ, мощность которых превышает GTP-4, — говорится в письме. — Эта пауза должна быть публичной и проверяемой, охватывать всех ключевых фигур. Если эта мера не будет введена быстро, правительства должны вмешаться и ввести мораторий».
Среди подписавших петицию Стив Возняк, Йошуа Бенжио, Гэри Маркус, Стюарт Рассел, Эмад Мостак, Яан Таллинн, Юваль Харари, Эндрю Ян и Илон Маск. Полный список можно увидеть тут, однако издание Verge предупреждает, что некоторые имена добавлены в список явно в виде шутки — например, имя Сэма Альтмана, руководителя OpenAI, частично ответственного за нынешнюю гонку генеративных моделей.
Учитывая стремление Google, Microsoft и Baidu как можно скорее вывести на рынок новые ИИ-продукты в обход конкурентов, невзирая на декларированную ранее приверженность безопасности и этике, обращение едва ли возымеет должный эффект. Однако оно является признаком растущей оппозиции принятому подходу «отправим сейчас, исправим потом». Эта оппозиция может со временем убедить законодателей принят соответствующие правила.
Как отмечается в письме, даже OpenAI заявляла о необходимости «независимого контроля» над будущими системами ИИ, которые должны соответствовать стандартам безопасности. Подписавшие утверждают, что это время пришло.
«ИИ-лаборатории и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов для проектирования и разработки передового ИИ, который был бы открыт для тщательной проверки и надзора сторонними экспертами. Эти протоколы должны гарантировать, что системы, которые им следуют, безопасны вне всяких сомнений», — говорится в документе.