Ученые научились ловить искусственный интеллект на лжи
![](https://cdn.spbdnevnik.ru/uploads/block/image/917902/__medium_%D0%B7%D0%B0%D0%B3%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5%20-%202024-06-25T035359.726.jfif.jpg)
Ученые из Великобритании создали метод, который позволяет точно определить, когда чат-боты на основе искусственного интеллекта обманывают пользователей.
Хотя ChatGPT и другие подобные боты не способны намеренно вводить в заблуждение пользователя, они могут предоставлять неточную информацию, если не владеют всеми данными, передает телеканал «Санкт-Петербург».
Проведенное исследование было опубликовано в журнале Nature. Ученые измеряли семантическую энтропию. Они задавали искусственному интеллекту один и тот же вопрос несколько раз и подсчитывали число семантически эквивалентных ответов.
Если большинство ответов совпадали, скорее всего, бот был не уверен в формулировке, однако знал правильный ответ. В противном же случае, искусственный интеллект мог лгать.