Недавно выпущенные OpenAI GPT позволяют создавать пользовательские чат-боты, но некоторые из них оказываются уязвимыми. Исследователи безопасности обнаружили, что пользователи могут вынудить пользовательские GPT раскрывать первоначальные инструкции создания и скачивать файлы, используемые для настройки ботов.
Эксперты предупреждают, что это может поставить под угрозу личные данные и конфиденциальную информацию. «Проблемы утечки файлов с конфиденциальными данными следует рассматривать серьезно», — отмечает исследователь по компьютерным наукам в США. «Даже если данные не содержат секретной информации, они могут включать знания, которыми создатель не желает делиться, и которые являются основой для пользовательских GPT».
Создание пользовательских GPT (также известных как AI — агенты) от OpenAI очень простое. Подписчики OpenAI могут легко создавать эти чат-боты для личного использования или публикации в сети. Компания планирует предоставить возможность разработчикам зарабатывать деньги в зависимости от числа пользователей GPT.
Читать далее