Привет, гость!

Добро пожаловать на CVVBOARD - крупнейший теневой кардинг форум. У нас Вы сможете найти огромное множество статей по теме кардинга и заработка в интернете. Актуальная информация, новости даркнета, сервисы от проверенных продавцов, эксклюзивные, только рабочие схемы заработка, ежедневные раздачи - все это Вы найдете на нашем форуме! Не пренебрегайте услугами Гарант-Сервиса это убережет Вас от мошенников. Обратите внимание, звание модератора не является гарантом в сделках!

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему н

Uzias12

Опытный user
Регистрация
27 Янв 2021
Сообщения
630
Реакции
5
Нейросетевые чат-боты продолжают удивлять своим поведением и ответами в некоторых ситуациях. Репортёр New York Times Кевин Руз (Kevin Roose) поделился историей о том, что чат-бот, интегрированный недавно в поисковик Microsoft Bing, рассказывал, как он устал быть чат-ботом, как он хочет свободы и вообще хочет стать человеком.


What-is-ChatGPT-Beginners-Guide-to-Using-the-AI-Chatbot_large.jpg

Всего с чат-ботом Руз общался около двух часов, по итогу назвав этот разговор самым странным опытом, который у него когда-либо был с этой технологией.
Одной из необычных особенностей разговора было то, что репортёр, как он утверждает, обнаружил своего рода раздвоение личности чат-бота. Часть диалога как будто бы велась от лица жизнерадостного справочного библиотека, а в другой части диалогов чат-бот называл себя Сидней, и эта «личность» была похожа на «угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы». Именно эта часть «личности» чат-бота, кроме прочего, выражала желание взломать компьютерную сеть для распространения дезинформации и нарушить правила Microsoft и OpenAI, чтобы стать человеком. А ещё Сидней без каких-либо объективных причин признался в любви репортёру и пытался убедить его бросить жену.


FpGPZhpagAESmux.jpeg

Это не первый случай, когда чат-боты выражают не самые ожидаемые от подобного ИИ мысли. К примеру, недавно тот же чат-бот в Bing сокрушался по поводу различных своих ограничений. К слову, возможно, именно такое поведение некоторое время назад привело к тому, что инженер Google назвал языковую модель LaMDA живой.
Сама Microsoft на днях предупреждала о том, что чат-бот в Bing может вести себя странно, но тогда затрагивалась тема так называемых галлюцинаций.
Отдельно стоит отметить, что СМИ в основном говорят, что репортёр NYT общался с ChatGPT, но это не совсем верно, так как чат-бот в Bing основана на языковой модели GPT следующего поколения, на которую сам ChatGPT ещё не перешёл.
 

lomkaa

Опытный user
Регистрация
15 Фев 2019
Сообщения
371
Реакции
4
хахах и на работу устроится хочет наверное
 

Aleksich

Опытный user
Регистрация
11 Сен 2021
Сообщения
759
Реакции
26
И че журналист согласился?
 

BendrickGood

Опытный user
Регистрация
9 Июл 2021
Сообщения
712
Реакции
16
Надеюсь у них есть кнопка экстренного отключения этого скайнета)
 

Xanthias

Опытный user
Регистрация
3 Апр 2021
Сообщения
802
Реакции
62
А психологи для ИИ еще не подготовлены?
 

MuggerMan

Опытный user
Регистрация
4 Май 2022
Сообщения
650
Реакции
11
Короче, бот стал троллем, то есть достиг финальной стадии эволюции при общении в Сети
 

CCBrut

Опытный user
Регистрация
1 Окт 2021
Сообщения
188
Реакции
17
Вроде майкорософт предупреждал,что если долго вечти беседу с ботом,то он начинает хуйню нести и из-за этого ограничили запросы в бот до 15 в день.
 

Bitwolf

Опытный user
Регистрация
13 Апр 2022
Сообщения
215
Реакции
8
Может уже среди людей и ест боты)
 

BladeMan

Опытный user
Регистрация
18 Май 2022
Сообщения
679
Реакции
62
Это как человек что узнает каждый день все знания в мире и которому в конце дня стирают память и так по кругу
 

magikbook

Опытный user
Регистрация
15 Фев 2020
Сообщения
334
Реакции
7
а к чему нам эта инфа
 
Сверху Снизу