
Инициатива подчеркивает приверженность Meta смягчению угроз, связанных с ИИ, особенно в области кибербезопасности и биобезопасности.
В рамках этой структуры Meta будет оценивать системы ИИ на основе их потенциального вреда, классифицируя их как модели с высоким или критическим риском. По данным компании, ИИ с высоким риском может быть использован для кибератак или биологических угроз, в то время как ИИ с критическим риском может привести к далеко идущим и катастрофическим последствиям.
Для предотвращения потенциального нецелевого использования Meta заявила, что любая модель ИИ, подпадающая под категорию критического риска, столкнется с немедленной остановкой разработки. Между тем, модели с высоким риском будут оставаться ограниченными внутри компании, пока компания работает над улучшениями безопасности, прежде чем рассматривать контролируемый выпуск.
Meta ужесточает меры безопасности ИИ на фоне проблем с конфиденциальностью
Решение Meta о внедрении более строгих протоколов безопасности было принято на фоне растущих опасений по поводу неправомерного использования ИИ. Недавно DeepSeek, китайский стартап в области ИИ, был удален из App Store компании Apple и Google Play в Италии из-за правительственного расследования его методов сбора данных. Это подчеркивает растущее внимание к конфиденциальности и безопасности ИИ во всем мире.
Для оценки уровней риска Meta будет полагаться на сочетание внутренних исследований и внешних оценок, признавая, что ни один тест не может полностью определить потенциальные опасности модели ИИ. Структура устанавливает структурированный процесс обзора, гарантируя, что старшие лица, принимающие решения, контролируют оценки рисков ИИ и утверждают окончательные классификации.
Баланс между разработкой открытого ИИ и безопасностью
Хотя Meta исторически продвигала открытую экосистему ИИ, особенно через свои модели Llama AI, этот сдвиг политики предполагает более осторожный подход. Компания столкнулась с критикой после того, как появились сообщения о том, что противник США использовал Llama AI для разработки военного чат-бота.
Несмотря на это, Meta по-прежнему привержена ответственному развитию ИИ, внедряя меры безопасности для предотвращения его неправомерного использования. Ранее компания объявила о планах инвестировать $65 млрд в развитие ИИ.
Между тем, конкуренция в сфере безопасности ИИ продолжает накаляться. Недавно OpenAI анонсировала ChatGPT Gov, специализированную модель ИИ, разработанную для правительственных агентств США, что еще раз демонстрирует растущую важность безопасности ИИ в технологической отрасли.
Источник: Traders UnionЧитайте также: Илон Маск назвал гендиректора OpenAI мошенником после отклоненного предложения в $97 млрд