Свыше 150 ведущих исследователей искусственного интеллекта и других специалистов подписали открытое письмо, в котором призывают компании, занимающиеся созданием генеративного искусственного интеллекта (GenAI), подвергнуть свои системы независимой оценке, отсутствие которой вызывает опасения относительно базовой защиты.
Письмо, составленное исследователями из Массачусетского технологического института, Принстонского университета и Стэнфордского университета, призывает к юридическим и техническим мерам защиты для добросовестных исследований моделей GenAI, отсутствие которых препятствует принятию мер безопасности, которые могли бы защитить общественность.
Письмо, а также исследование, лежащее в его основе, были созданы при помощи почти двух десятков профессоров и исследователей, которые призвали к юридическому «прибежищу» для независимой оценки продуктов GenAI.
Письмо было отправлено компаниям, включая OpenAI, Anthropic, Google, Meta и Midjourney, и просит их разрешить исследователям изучать свои продукты, чтобы обеспечить защиту потребителей от предвзятости, предполагаемого нарушения авторских прав и несогласованного размещения интимных изображений.
«Независимая оценка ИИ-моделей, которые уже внедрены, широко признается необходимой для обеспечения безопасности, защиты и доверия», — написали два исследователя, ответственных за письмо, в своем блоге. «Независимые исследования (red-teaming) моделей ИИ выявили уязвимости, связанные с языками с низкими ресурсами, обходом мер безопасности и широким спектром способов обхода защиты.
«Эти оценки исследуют широкий набор часто неожиданных недостатков моделей, связанных с неправильным использованием, предвзятостью, нарушением авторских прав и другими проблемами», — добавили они.
В апреле прошлого года группа ведущих технологов призвала лаборатории искусственного интеллекта приостановить тренировку самых мощных систем как минимум на шесть месяцев, ссылаясь на «глубокие риски для общества и человечества».
Это открытое письмо теперь имеет более 3 100 подписантов, включая соучредителя Apple Стива Возняка; технологические лидеры особенно отметили алгоритм GPT-4, представленный недавно Лабораторией OpenAI из Сан-Франциско, заявив, что компания должна приостановить дальнейшее развитие, пока не будут установлены стандарты надзора.
В последнем письме говорится, что компании по ИИ, академические исследователи и гражданское общество «согласны с тем, что генеративные ИИ-системы представляют существенные риски, и что независимая оценка этих рисков является важной формой ответственности».
Среди подписантов профессора из ведущих университетов, включая Иви-лигу, и другие выдающиеся учебные заведения, такие как MIT, а также руководители компаний, таких как Hugging Face и Mozilla. В списке также есть исследователи и этикеты, такие как Дханарадж Тхакур, директор исследований в Центре демократии и технологии, и Субхабрата Маджумдар, президент Альянса по риску и уязвимости искусственного интеллекта.
Хотя в письме признается и даже высоко оценивается то обстоятельство, что некоторые создатели генИИ имеют специальные программы для предоставления исследователям доступа к своим системам, их также критикуют за то, что они субъективно определяют, кто может видеть их технологии и кто не может.
В частности, исследователи выделяют компании по искусственному интеллекту Cohere и OpenAI как исключения из правила, «хотя остается некоторая неопределенность относительно объема защищенных деятельностей».
Cohere позволяет «намеренное тестирование API на прочность и атаки злоумышленников», при условии соответствующего раскрытия уязвимостей (без явных юридических обещаний). И OpenAI расширила свою защиту, чтобы включить «исследования уязвимости модели» и «академические исследования безопасности модели» в ответ на раннюю версию нашего предложения.
В некоторых случаях фирмы по созданию генИИ уже приостановили аккаунты исследователей и даже изменили свои условия обслуживания, чтобы предотвратить некоторые типы оценок, по словам исследователей, «подавление независимых исследователей не в интересах компаний по искусственному интеллекту».
Независимые оценщики, которые расследуют продукты GenAI, опасаются приостановки аккаунтов (без возможности обжалования) и юридических рисков, «оба из которых могут оказывать охлаждающее воздействие на исследования», — утверждается в письме.
Для защиты пользователей подписанты хотят, чтобы компании по искусственному интеллекту обеспечивали два уровня защиты для исследований:
Юридическое прибежище, чтобы обеспечить исследования независимого ИИ безопасности, надежности и доверия, проводимые с хорошо установленным раскрытием уязвимостей.
Корпоративное обязательство обеспечить более равный доступ, используя независимых рецензентов для модерации заявок исследователей на оценку.
Хотите сделать НОВЫЙ САЙТ или МОБИЛЬНОЕ ПРИЛОЖЕНИЕ, чтобы привлечь больше клиентов, или переделать существующий проект с учетом передовых трендов и технологий по обеспечению безопасности? Напишите нам https://new-artismedia-client.bitrix24site.ru/ , и мы поможем!