Исследователи разработали новый инструмент обучения, чтобы помочь программам искусственного интеллекта лучше учитывать тот факт, что люди не всегда говорят правду, когда предоставляют личную информацию. Новый инструмент разработан для использования в ситуациях, когда у людей есть экономические стимулы лгать, такие как подача заявки на ипотеку или попытка снизить страховые премии.
«Программы искусственного интеллекта используются в различных деловых контекстах, таких как помощь в определении того, какую ипотеку может позволить себе человек, или какие должны быть его страховые премии,» — говорит Мехмет Канер, соавтор статьи об этой работе. «Эти программы ИИ обычно используют математические алгоритмы, управляемые исключительно статистикой, для прогнозирования. Но проблема в том, что такой подход создает стимулы для людей лгать, чтобы получить ипотеку, снизить страховые премии и так далее.
«Мы хотели узнать, существует ли какой-то способ адаптировать алгоритмы ИИ, чтобы учитывать эти экономические стимулы к лжи,» — говорит Канер, который является профессором экономики в университете Северной Каролины.
Для решения этой проблемы исследователи разработали новый набор параметров обучения, который может использоваться для того, чтобы ИИ обучался делать прогнозы. В частности, новые параметры обучения сосредотачиваются на распознавании и учете экономических стимулов человеческого пользователя. Иными словами, ИИ обучается распознавать обстоятельства, в которых человек может солгать, чтобы улучшить свои результаты.
В симуляциях научные работники продемонстрировали, что модифицированный ИИ лучше способен выявлять неточную информацию от пользователей.
«Это эффективно уменьшает стимулы пользователя лгать при предоставлении информации,» — говорит Канер. «Однако небольшие лжи могут оставаться незамеченными. Нам нужно провести дополнительные исследования, чтобы лучше понять, где находится граница между ‘малой ложью’ и ‘большой ложью’.»
Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики могли экспериментировать с ними.
«Эта работа показывает, что мы можем улучшить программы ИИ, чтобы уменьшить экономические стимулы для людей лгать,» — говорит Канер. «В какой-то момент, если мы сделаем ИИ достаточно умным, мы, возможно, сможем устранить эти стимулы полностью.»
Данное исследование открывает перспективы для создания более надежных систем, способных более точно распознавать и корректировать недостоверные данные, что в конечном итоге приведет к повышению эффективности использования искусственного интеллекта в различных сферах человеческой деятельности.
Хотите сделать НОВЫЙ САЙТ или МОБИЛЬНОЕ ПРИЛОЖЕНИЕ, чтобы привлечь больше клиентов, или переделать существующий проект с учетом передовых технологий по обеспечению безопасности? Напишите нам https://new-artismedia-client.bitrix24site.ru/ , и мы поможем!