Недавно выпущенные OpenAI GPT позволяют создавать пользовательские чат-боты, но некоторые из них оказываются уязвимыми. Исследователи безопасности обнаружили, что пользователи могут вынудить пользовательские GPT раскрывать первоначальные инструкции создания и скачивать файлы, используемые для настройки ботов.
Эксперты предупреждают, что это может поставить под угрозу личные данные и конфиденциальную информацию. «Проблемы утечки файлов с конфиденциальными данными следует рассматривать серьезно», — отмечает исследователь по компьютерным наукам в США. «Даже если данные не содержат секретной информации, они могут включать знания, которыми создатель не желает делиться, и которые являются основой для пользовательских GPT».
Создание пользовательских GPT (также известных как AI — агенты) от OpenAI очень простое. Подписчики OpenAI могут легко создавать эти чат-боты для личного использования или публикации в сети. Компания планирует предоставить возможность разработчикам зарабатывать деньги в зависимости от числа пользователей GPT.
Для создания пользовательского GPT достаточно отправить сообщение ChatGPT и указать желаемые функции для бота. Важно предоставить четкие инструкции о том, что бот должен или не должен делать. Например, бот, отвечающий на вопросы о налоговом законодательстве США, может получить инструкции не отвечать на несвязанные вопросы или вопросы о законах других стран. Загрузка документов с конкретной информацией может придать чат-боту большую экспертизу, например, подача файлов с информацией о том, как работает налоговый закон в США. Подключение сторонних API также помогает расширить доступ к данным и видам задач, которые пользовательский GPT может выполнять.
Информация, предоставленная пользовательским GPT, часто может быть неважной, но в некоторых случаях она может быть более чувствительной. Данные в пользовательских GPT часто содержат «инсайты, специфичные для области», предоставленные дизайнером, а также чувствительную информацию, такую как «зарплаты и описания рабочих мест». Одна страница на GitHub перечисляет около 100 наборов утечек инструкций, предоставленных пользовательским GPT. Эти данные делают работу чатботов более прозрачной, но, вероятно, разработчики не предполагали их публикации. Уже был случай, когда разработчик удалил предоставленные им данные.
Эти инструкции и файлы были доступны благодаря внедрению запросов, иногда известных как форма джейлбрейка (взлома). Коротко говоря, это означает указание чат-боту вести себя так, как ему было сказано не вести. Ранние внедрения запросов видели, как люди говорили большой языковой модели (LLM) как ChatGPT или Google’s Bard игнорировать инструкции о запрете создания ненавистных высказываний или другого вредного контента. Более сложные внедрения запросов использовали множественные слои обмана или скрытые сообщения в изображениях и сайтах, чтобы показать, как злоумышленники могут воровать данные людей. Создатели LLM установили правила, чтобы предотвратить работу обычных запросов, но простых решений пока нет.
С увеличением числа пользовательских GPT возрастает и риск нарушения конфиденциальности. Необходимо больше внимания к потенциальным рискам для конфиденциальности, предупреждений о возможности промт-инъекций, и использование «защитных запросов» может обеспечить дополнительную защиту. Рекомендуется также очищать загружаемые данные от чувствительной информации и внимательно выбирать, что загружать. Работа по защите ботов от проблем с промт- инъекциями продолжается, так как люди находят новые способы взлома чат-ботов и обхода их правил.
Думаете о том, как ОПТИМИЗИРОВАТЬ ПРОЕКТ, чтобы повысить конверсию, или создать НОВЫЙ ПРОЕКТ с учетом новых трендов? Напишите нам https://b24-rbite8.bitrix24.site/blog/ и мы поможем!