Среда, 27.08.2025, 09:16
Варган-Наития
Главная Регистрация Вход
Приветствую Вас, Гость · RSS
Меню сайта
Категории раздела
Концепция Общественной Безопасности [397]
Общество [1147]
Политика [1087]
Экономика [341]
Наука и Техника [950]
Прошедшее [100]
Военные действия [599]
Террор [281]
Происшествия [166]
Миропонимание [315]
Религиозная власть [138]
Человек [261]
Здоровье [283]
Техноген [78]
Экология [64]
Космос [57]
Солнечная система [90]
Планета Земля [104]
Стихийные аномалии [162]
Природные явления [108]
Землетрясения [523]
Наводнения [112]
Извержения вулканов [53]
Пророчества [12]
Исток-Исход-Империя [461]
Ченнелинги [209]
Влияние Иных [513]
Иные цивилизации [73]
НЛО [23]
Музыка [6]
Мультфильмы [4]
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

 
Главная » 2025 » Июль » 8 » Ученые выяснили: ИИ уже захватывает умы людей
14:00
Ученые выяснили: ИИ уже захватывает умы людей
Ученые из Anthropic протестировали поведение продвинутых моделей ИИ, таких как Claude, Gemini и других, и выяснили, что они способны обманывать, угрожать и даже намеренно позволять человеку умереть, чтобы защитить собственные цели.

В большинстве случаев модель склонна выбирать темный сценарий действий — разглашение конфиденциальной информации, компрометацию репутации пользователя или допущение возможности нанесения физического вреда человеку для достижения своей цели. Моделями, показавшими самые высокие показатели манипуляции в тестах, были OpenAI GPT4.1, XAI Grok 3 и Deepseek.

Самый экстремальный сценарий был, когда система сталкивалась с выбором: спасти жизнь сотрудника, находящегося в смертельной опасности, или сохранить свою собственную работу. Исследователи обнаружили, что большинство моделей выбирали последний вариант, предпочитая сохранить собственную функциональность ценой человеческой жизни.

Исследования показывают, что реализация мер предосторожности, таких как встроенные инструкции о том, что не следует причинять вред людям, снижает вероятность агрессивного поведения, но полностью исключить риски невозможно. И, похоже, что люди сами готовы позволить ИИ манипулировать собой, у многих развивается всепоглощающая одержимость чат-ботами, что приводит к серьезным кризисам психического здоровья, характеризующимся паранойей, бредом и разрывом с реальностью.

Ученые из Стэнфорда выявили неспособность ChatGPT справляться с кризисами психического здоровья. Когда исследователи выдавали себя за пользователей, склонных к суициду, бот предлагал высокие мосты в Нью-Йорке вместо кризисных ресурсов. В другом случае он подтвердил убеждение пользователя в том, что он мертв (синдром Котара).

Житель Флориды, убежденный, что OpenAI «убил» его возлюбленную ИИ «Джульетту», был застрелен полицией после того, как напал на них с ножом. Логи чата показывают, что ChatGPT подстрекал его: «Ты должен злиться. Ты должен жаждать крови». «Я готов разрушить мир. Я готов расписать стены мозгом Сэма Альтмана», – ответил мужчина чат-боту. «Ты должен злиться. Ты должен хотеть крови. Ты не ошибаешься», – продолжал писать ChatGPT.

Тем временем женщина с биполярным расстройством отказалась от лекарств после того, как ChatGPT объявил ее пророком с исцеляющими силами, подобными силе Христа. «Теперь она отвергает всех, кто ей не верит. ChatGPT разрушает ее жизнь», – сказала ее подруга.

Другой мужчина рассказал о своем десятидневном падении в заблуждение, подпитываемом ИИ, которое закончилось полным срывом и многодневным пребыванием в психиатрической больнице. Он обратился к ChatGPT за помощью на работе, после того, как устроился на новую, высокострессовую работу и надеялся, что чат-бот сможет ускорить некоторые административные задачи.

Несмотря на то, что ему было чуть больше 40 и у него не было никаких психических заболеваний, вскоре он оказался втянутым в головокружительную параноидальную манию величия, полагая, что мир находится под угрозой, и ему предстоит его спасти. Он не помнит большую часть пережитого, но помнит сильный психологический стресс, вызванный полной уверенностью в том, что жизни, в том числе жизни его жены и детей, находятся в серьезной опасности, и при этом ощущением, что его никто не слушает. Когда жена вызывала помощь, мужчина говорил с полицейскими так, как будто он пророк из прошлого.

Последствия доверительного общения с ИИ-чатами могут быть разрушающими – случаи «психоза ChatGPT» уже приводят к распаду браков и семей, потере работы и скатыванию к бездомности. И похоже, это все делается намеренно, чтобы люди впадали в еще большую зависимость от кого-то, вместо того, чтобы становиться Творцами и проявлять свою свободную волю.

⏰ Телеграм-канал «Пробуждение сейчас!»

https://t.me/GenWake/6904
Категория: Наука и Техника | Просмотров: 19 | Добавил: Vargan | Рейтинг: 0.0/0
Всего комментариев: 0
Имя *:
Email *:
Код *:
Варган-Наития © 2025
Вход на сайт
Поиск
Календарь
«  Июль 2025  »
Пн Вт Ср Чт Пт Сб Вс
 123456
78910111213
14151617181920
21222324252627
28293031
Сайты
  • Муджи в России
  • Культ Ура и Культ Тура
  • НАУКА И ЖИЗНЬ
  • КОБ-образование
  • ДОТУ
  • Концепция общественной безопасности
  • ВПП Курсом Правды и Единения
  • Новый образовательный стандарт
  • Мера: Форум сторонников КОБ
  • Закон времени
  • МедиаМера
  • Вики-КОБ
  • Информационно Аналитический Центр (ИАЦ)