Привет, гость!

Добро пожаловать на CVVBOARD - крупнейший теневой кардинг форум. У нас Вы сможете найти огромное множество статей по теме кардинга и заработка в интернете. Актуальная информация, новости даркнета, сервисы от проверенных продавцов, эксклюзивные, только рабочие схемы заработка, ежедневные раздачи - все это Вы найдете на нашем форуме! Не пренебрегайте услугами Гарант-Сервиса это убережет Вас от мошенников. Обратите внимание, звание модератора не является гарантом в сделках!

Глава Google Search предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов

Uzias12

Опытный user
Регистрация
27 Янв 2021
Сообщения
630
Реакции
5
Старший вице-президент Google и глава Google Search Прабхакар Рагхаван предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов на базе ИИ. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.
logo.jpeg

«Этот тип искусственного интеллекта, о котором мы сейчас говорим, может иногда приводить к тому, что мы называем галлюцинациями. Это выражается таким образом, что система даёт убедительный, но полностью выдуманный ответ», — рассказал Рагхаван.

Глава Google Search добавил, что одной из основных задач Google является не только разработка чат-бота Bard, но и сведение к минимуму количества неправильных ответов из-за цифровых галлюцинаций у ИИ.

По словам Рагхавана, в Google столкнулись с текущей безотлагательной ситуацией по необходимости выпуска своего чат-бота, чтобы не упустить рынок. Но в компании также понимают большую ответственность за этот проект. Разработчики не хотят вводить пользователей в заблуждение и вот прямо сейчас выпускать в открытый доступ сырого чат-бота, который в некоторых случаях может придумать убедительный ответ и обмануть пользователя с ожиданиями.

Учёный и астрофизик Грант Тремблей согласен с Рагхаваном. Он пояснил СМИ, что технологии ChatGPT и Bard выглядят жутко впечатляюще, но они часто «очень уверенно» ошибаются и не могут самостоятельно проверять себя на ошибки. По мнению учёного, основной проблемой чат-ботов с искусственным интеллектом является их склонность уверенно заявлять неверную информацию как факт. «Эти системы часто «галлюцинируют», то есть выдумывают информацию, потому что они по сути являются системами автозаполнения», — считает Тремблей.
 

Aleksich

Опытный user
Регистрация
11 Сен 2021
Сообщения
759
Реакции
26
Это он после фейла их бота рассказал?
 

Xanthias

Опытный user
Регистрация
3 Апр 2021
Сообщения
802
Реакции
62
Ну если у них ничего супер заумного не спрашивать то ошибок практически не будет, я уверен.
 

HennisonVsop

Опытный user
Регистрация
12 Мар 2021
Сообщения
711
Реакции
25
Интересно, а если бы их бот не ошибся он бы это рассказывал?
 

GrishkaLeps

Опытный user
Регистрация
13 Ноя 2021
Сообщения
625
Реакции
12
Думаю скоро это исправят, либо сделают что-то типо плашки "информация может быть не точной"
 

LehaMirnbiy

Опытный user
Регистрация
5 Авг 2021
Сообщения
671
Реакции
14
Плашку я бы тоже добавил, типо пока не исправят это.
 

GenaReshala

Опытный user
Регистрация
1 Окт 2021
Сообщения
790
Реакции
18
а выдача гугла полностью проверена)
 

Embrin98

Опытный user
Регистрация
27 Май 2021
Сообщения
810
Реакции
28
Бот не получил достоверный информации - это его галлюцинации.
 
Сверху Снизу