Архив метки: кастомные чатботы openAi

СЕКРЕТЫ ПОЛЬЗОВАТЕЛЬСКИХ ЧАТ-БОТОВ OpenAI ПОД УГРОЗОЙ: ВОЗМОЖНОСТЬ УТЕЧКИ ДАННЫХ

Недавно выпущенные OpenAI GPT позволяют создавать пользовательские чат-боты, но некоторые из них оказываются уязвимыми. Исследователи безопасности обнаружили, что пользователи могут вынудить пользовательские GPT раскрывать первоначальные инструкции создания и скачивать файлы, используемые для настройки ботов.

Эксперты предупреждают, что это может поставить под угрозу личные данные и конфиденциальную информацию. «Проблемы утечки файлов с конфиденциальными данными следует рассматривать серьезно», — отмечает исследователь по компьютерным наукам в США. «Даже если данные не содержат секретной информации, они могут включать знания, которыми создатель не желает делиться, и которые являются основой для пользовательских GPT».

Создание пользовательских GPT (также известных как AI — агенты) от OpenAI очень простое. Подписчики OpenAI могут легко создавать эти чат-боты для личного использования или публикации в сети. Компания планирует предоставить возможность разработчикам зарабатывать деньги в зависимости от числа пользователей GPT.

Читать далее