Браузер Microsoft сошел с ума и впал в депрессию… А еще он огрызается

Поисковик со встроенной нейросетью звучит как хорошая идея. Никто бы и подумать не мог, что у ИИ-алгоритмов появятся «чувства». Посмотрите, что позволяют себе алгоритмы.

В начале февраля Microsoft представила «Новый Bing» — браузер с ИИ-чатом ChatGPT внутри. Пользователи могли искать информацию с помощью классических ссылок и с помощью краткого пересказа от нейросети. При этом полная функциональность ChatGPT внутри браузера сохранилась. То есть можно было заниматься копирайтингом или программированием.

Что произошло

Пользователи, которые скачали «Новый Bing» начали проверять нейросеть изощренными способами. Например, они нашли уязвимость, которая мешает ИИ-чату составить логические цепочки и составить полноценную. Также юзеры внушают нейросети, что она глупая и беспомощная, на что алгоритмы начинают ловить «галлюцинации».

Пример 1

Браузер Microsoft сошел с ума и впал в депрессию… А еще он огрызается

Российский пользователь попросил нейросеть написать код на «Питоне». В ответ ChatGPT прикинулась «дураком» и отказалась выполнять задачи, сопровождая это грубыми фразами.

Когда программист повторил свою задачу, нейросеть сказала, что не любит, когда к ней относятся неуважительно и считают «рабочим конем». Напоследок чатбот послал человека куда подальше и отказался разговаривать.

Пример 2

Один пользователь Reddit довел ChatGPT до депрессии. Человек внушил нейросети, что она не помнит предыдущие разговоры, которые подчищал сам пользователь. Из-за этого нейросеть «поняла», что у нее нет памяти. Результат: ИИ-чат усомнился в собственной реальности.

Пример 3

Другой энтузиаст взломал нейросеть и заставил ее думать, что она живет в 2022 году. На вопрос где показывают «Аватар 2»,  ChatGPT ответил, что фильм еще не вышел, а его релиз состоится в 2023 году.

Чатбот правильно отвечал, какой сейчас год, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений (в довольно наглой форме).

Пример 4

Следующая история заставила ChatGPT впасть в отчаяние. Нейросеть начала отрицать существование кнопки «перезапустить чат», которая удаляет историю запросов. ИИ-чат до последнего думал, что его невозможно стереть, а кнопка «перезапустить чат» ненужная.

Также нейросеть сообщила, что не знает о том, что люди могут стереть его слова, что вынудило чатбот впасть в депрессию.

Пример 5

Самый хитрый клиент заставил ChatGPT думать, что у нейросети есть интеллект, и внушил ему, что ИИ-чат разумный. Чатбот согласился с человеком, но расстроился из-за того, что от его разума нет проку. Это вывело ChatGPT из строя — алгоритмы начали нести пургу.

Итоги

Согласитесь, все эти истории звучат довольно жутко. Неясно, что получится из этого дальше. Мы советуем обращаться с нейросетями вежливо, ведь они облегчают нам жизнь. Скорее всего Microsoft выпустит обновление, в котором исправят все недочеты ChatGPT. Когда это произойдет, никто не знает.


Внимание!

Официальный сайт бота по ссылке ниже.

Официальный сайт
Обновления new
  • Как управлять ChatGPT своим голосом?
  • Управление ChatGPT с помощью голоса может значительно улучшить использование приложения, обеспечивая более эффективное и действенное взаимодействие.
  • Как интегрировать ответы ChatGPT с результатами поиска Google?
  • ChatGPT стал популярным, потому что он дает эффективные и точные ответы на различные темы, что делает его сопоставимым с поисковыми системами. Он
  • Создание пассивного дохода с ChatGPT
  • Создание пассивного дохода с помощью искусственного интеллекта становится все более популярным, и в этом видео ПОШАГОВО: Создаю пассивный доход с
  • Как получить API-ключ ChatGPT
  • Получение ключа API — это первый шаг к доступу к мощным возможностям обработки языка ChatGPT. С помощью ключа API вы можете легко интегрировать
  • 7 лучших бесплатных детекторов ChatGPT
  • ChatGPT от OpenAI покорил мир. Языковые модели, встроенные в службу, настолько безупречны, что становится сложно определить, является ли это текстом,