Яндекс.Метрика
  • Максим Лиепкайс

Ученые научились ловить искусственный интеллект на лжи

ИИ может предоставлять неточные данные
Фото: Олег Золото / «Петербургский дневник»

Ученые из Великобритании создали метод, который позволяет точно определить, когда чат-боты на основе искусственного интеллекта обманывают пользователей.

Хотя ChatGPT и другие подобные боты не способны намеренно вводить в заблуждение пользователя, они могут предоставлять неточную информацию, если не владеют всеми данными, передает телеканал «Санкт-Петербург».

Проведенное исследование было опубликовано в журнале Nature. Ученые измеряли семантическую энтропию. Они задавали искусственному интеллекту один и тот же вопрос несколько раз и подсчитывали число семантически эквивалентных ответов.

Если большинство ответов совпадали, скорее всего, бот был не уверен в формулировке, однако знал правильный ответ. В противном же случае, искусственный интеллект мог лгать.

Закрыть