OpenAI представила набор инструментов для отслеживания угроз со стороны ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
OpenAI внедряет новые меры безопасности для борьбы с возможными угрозами со стороны искусственного интеллекта. Компания создала «консультативную группу по безопасности», которая будет контролировать работу технических команд и давать рекомендации руководству. Кроме того совету директоров предоставлено право вето в отношении решений гендиректора. Эти меры, как полагает вернувшийся к управлению OpenAI Сэм Альтман, позволят компании снять вопросы прозрачности и безопасности работ над передовыми системами ИИ.
Одним из ключевых компонентов новой системы безопасности является использование «оценочных карт» рисков для моделей ИИ, которые измеряют и отслеживают различные показатели потенциального вреда, такие как возможности модели, уязвимости и последствия. Оценочные карты регулярно обновляются, а меры вмешательства при достижении определенных пороговых значений риска пересматриваются.
Производством моделей управляет команда «систем безопасности». Эта команда занимается, например, систематическими злоупотреблениями ChatGPT, которое может смягчаться ограничениями или настройкой API. Модели на стадии разработки оценивает команда «готовности», которая стремится выявить риски до выпуска модели. Также есть команда «сверхвыравнивания», которая работает над теоретическими руководствами для «сверхинтеллектуальных» моделей.
Первые две категории имеют относительно понятную методику оценки. Команды оценивают каждую модель по четырем категориям риска: кибербезопасность, влияние (например, дезинформация), автономность модели, а также комплекс угроз: химические, биологические, радиологические и ядерные, например, способность создавать новые патогены.
Предполагаются различные меры смягчения последствий, например, сдержанность в описании процесса изготовления напалма или самодельных бомб. Если после принятия во внимание мер по снижению риска, модель по-прежнему оценивается как имеющая «высокий риск», ее нельзя развернуть, а если у модели есть какие-либо «критические риски», ее не будут развивать дальше.
OpenAI уделяет внимание строгой и основанной на данных оценки рисков искусственного интеллекта. Отказ от гипотетических и спекулятивных сценариев, которые часто преобладают в публичном дискурсе, является приоритетом. OpenAI заявляет, что вкладывает ресурсы в разработку стратегий смягчения рисков и гарантий безопасности. Лаборатория будет постоянно совершенствовать и обновлять структуру на основе новых данных, отзывов и исследований, а также будет делиться своими выводами и передовым опытом с более широким сообществом ИИ.
Анонс OpenAI последовал за несколькими крупными релизами, посвященными безопасности ИИ, от ее главного конкурента, Anthropic. Компания, основанная бывшими исследователями OpenAI, недавно опубликовала свою «Политику ответственного масштабирования». Эта политика представляет структуру, определяющую конкретные уровни безопасности ИИ и соответствующие протоколы для разработки и внедрения моделей ИИ.
Структуры OpenAI и Anthropic значительно отличаются. Политика Anthropic имеет более формальный и предписывающий характер, прямо связывая меры безопасности с возможностями моделирования. Если безопасность не демонстрируется, разработка прекращается. Структура OpenAI более гибкая и адаптивная. Устанавливаются общие пороговые значения риска, которые требуют проведения проверок, а не жестко заданные уровни.
- Источник(и):
- Войдите на сайт для отправки комментариев