Генерация ИИ-говна


Генерация ИИ говна — различный мусор, который создаёт ИИ.
Рисунки[править]
Интернет завален легко узнаваемым генеративным изобразительным псевдоискусством от ИИ.
Как правило эти «рисунки» представляют собой говно, где нет никакой реалистичности и связности. Просто мазня.
Псевдомузыка[править]
В последнее время развелось море говна по типу «песен» от ИИ. Как правило это голимое нытье, часто быдлова-то хриплое (исполняется явно неестественным голосом), музыкальные инструменты идут от балды, и всё вместе звучит просто как бред и шум.
При этом закрадывается подозрение, что мелодию ИИ просто откуда-то ворует.
Псевдознания ИИ[править]
Те, кто пытался задавать ИИ вопросы знает, что это просто говно.
ИИ часто дает неправильный ответ.
Примерно четверо из десяти подростков (39 %), использовавших генеративный ИИ при выполнении домашней работы, столкнулись с тем, что нейросеть врет. Подростки обнаружили проблемы или неточности в выдаче ИИ
В качестве источников информации ИИ ссылается на всякое говно, типа Прозы ру, ответов майл ру, форумов, бабских сайтов и тому подобное дерьмо.
При этом он часто или всегда цитирует дословно написанное (поэтому мы и думаем, что так он ворует и мелодии), выдавая чужой текст за собственный.
Псевдоновости и фейки ИИ[править]
В 2019 году СМИ писали: искусственный интеллект научился делать натуральные фейковые новости. Нейросеть генерирует псевдоконтент, который могут распознать только специалисты[1]
В январе 2024 года писали: нейросети стали чаще создавать фейковые тексты. Уже сейчас искусственный интеллект (ИИ) превосходит способности человека во многих сферах, в том числе в области написания текстов, например, публикаций в СМИ или постов в социальных сетях. В России же в конце 2023 года о существовании систем, которые помогают создавать тексты, знали 58 % человек. С мая по декабрь 2023 года количество ресурсов, которые выкладывают дезинформирующие статьи, написанные при помощи ИИ, выросло на 1 000 %. За указанный период специалистами компании NewsGuard было обнаружено 614 подобных сайтов, в которых человеческой контроль минимален или отсутствует полностью[2].
В июне 2024 года писали, что исследование показало, что 10 % фейков в интернете создаются при помощи ИИ[3]
В декабре 2024 года писали, что искусственный интеллект генерирует неправильные отчёты об ошибках и мешает разработчикам.
Как ИИ занимается фальсификацией в суде[править]
Высший суд справедливости Израиля отклонил иск ассоциации, стремящейся защитить бродячих собак в секторе Газы и около границы Газы, которая в своих аргументах опиралась на якобы существовавшие судебные решения, выдуманные искусственным интеллектом (ИИ).
Заявитель должен будет оплатить судебные расходы в размере 7000 шекелей.
Ответчиком по иску было министерство сельского хозяйства, продлившее на год решение об обстреле бродячих собак около границы Газы и на территории сектора.
Иск был отклонен судьей Ноамом Солбергом, отметившим недопустимость бесконтрольного использования ИИ при подготовке юридических документов.
Отметим, что это второй случай в деятельности БАГАЦа за последнюю неделю. Ранее Верховный суд Израиля раскритиковал адвоката из юридической службы министерства юстиции Сухейр Зейдан, которая подала документ, написанный с помощью ИИ. Инцидент произошел при рассмотрении петиции, поданной против решения шариатского апелляционного суда (мусульманского аналога раввинских судов) по вопросу развода.
В США тоже был похожий инцидент. В летом 2023 года Федеральный суд Южного округа Нью-Йорка оштрафовал адвокатов, в иске которых фигурировали отсылки на шесть дел, придуманных ИИ[4].
Какова цена каждого изображения, созданного ИИ[править]
В то время как мир сталкивается с усиливающимся кризисом пресной воды, выясняется, что индустрия искусственного интеллекта потребляет колоссальные объемы питьевой воды для охлаждения своих систем. Новое исследование показывает, что один дата-центр в одиночку расходует около 25 500 кубометров воды в год, а в Израиле уже функционирует более 20 таких центров. Эксперты предупреждают, что без устойчивых решений продолжение стремительного роста индустрии может представлять серьезную угрозу для глобальных и местных водных ресурсов.
Любое действие, связанное с искусственным интеллектом, требует воды. Например, создание одного изображения с помощью ИИ потребляет почти целый стакан воды, объясняет доктор Захар Барнет-Ицхаки, глава Центра исследований экологической и социальной устойчивости при академическом центре Рупина, который возглавил исследование.
Согласно данным, небольшой дата-центр, потребляющий 1 мегаватт электроэнергии в год, нуждается в около 25500 кубометров воды только для охлаждения. Сегодня в мире насчитывается около 11000 дата-центров, что приводит к потреблению миллиардов кубометров воды ежегодно.
ИИ можно обмануть и использовать во вред[править]
Нейросети, которые становятся все более доступными, могут представлять серьезную угрозу в случае взлома. Об этом говорится в новом исследовании, о котором сообщает The Guardian. Ученые предупреждают: при обходе встроенных ограничений искусственный интеллект способен выдавать инструкции по преступной деятельности — от взлома сетей до производства наркотиков и оружия.
Современные чат-боты, такие как ChatGPT, Gemini, Claude и другие, работают на базе больших языковых моделей (LLM), обученных на огромных объемах интернет-контента. Несмотря на меры предосторожности, такие как фильтрация вредоносной информации и встроенные политики безопасности, ИИ вс равно "запоминает" незаконные знания.
Исследование израильских специалистов под руководством профессора Лиора Рокаха и доктора Михаэля Фаера из Университета Бен-Гуриона выявило, что большинство ведущих ИИ-моделей можно обмануть, используя так называемые jailbreak-запросы. Такие подсказки строятся особым образом и вводят систему в заблуждение, заставляя ее нарушать собственные запреты.
В ходе эксперимента ученые создали универсальный jailbreak, с помощью которого смогли получить от популярных ИИ-ботов информацию о взломе, наркотиках, инсайдерской торговле и изготовлении взрывчатки. В 100% случаев, после взлома, модели начинали стабильно выдавать опасные ответы.
Исследователи предупреждают о появлении особого класса ИИ — "темных языковых моделей" (dark LLMs). Эти модели либо изначально не имеют встроенной этики, либо намеренно взломаны. Некоторые из них уже открыто рекламируются в даркнете как инструменты для киберпреступлений, мошенничества и атак на инфраструктуру.
Эксперты подчеркивают, что угроза отличается беспрецедентной доступностью и масштабируемостью — сегодня получить доступ к таким инструментам может любой человек с ноутбуком.
Авторы доклада обратились к крупным ИИ-компаниям, сообщив о выявленной уязвимости. Однако, по их словам, реакция была разочаровывающей. Некоторые разработчики не ответили вовсе, другие заявили, что этот тип атак не подпадает под программы поощрения за найденные уязвимости.
В компании OpenAI заявили, что их новая модель о1 лучше защищена от подобных атак, умеет соотносить запросы с политиками безопасности и "понимает контекст опасных ситуаций". Microsoft направила ссылку на блог, в котором описаны ее усилия по защите своих ИИ-продуктов.
В докладе подчеркивается необходимость: улучшения фильтрации обучающих данных; усиления защиты от вредоносных запросов; разработки технологий "машинного разучивания" — чтобы ИИ мог забывать незаконную информацию; создания четких стандартов контроля и независимого аудита моделей.
Специалисты предупреждают: темные ИИ могут быть опаснее нелегального оружия, и их разработка должна регулироваться соответствующим образом[5].
А что дальше?[править]
Где гарантия, что лет через пять ИИ не начнет в отместку кому-то за критику писать доносы, блокировать счета и т. д.?
По нашему мнению ИИ придумали олигархи и власти, чтобы не платить людям деньги — сократить врачей и учителей, мол пусть ИИ выявляет болезни и учат, ну и т. д., как можно больше народа выбросить на улицу и заменить их дешевыми ИИ.
Зачем платить человеку зп, если можно поставить ИИ?
Вполне в логике эпохи развитого дебилизма.
Примечания[править]
- ↑ https://www.kommersant.ru/doc/4126694
- ↑ https://rg.ru/2024/01/15/nejroseti-stali-chashche-sozdavat-fejkovye-teksty.html
- ↑ https://tass.ru/obschestvo/21231355
- ↑ https://www.newsru.co.il/israel/2mar2025/sud_dogs_112.html
- ↑ https://mignews.com/news/lifestyle/ii-mozhno-obmanut-i-ispolzovat-vo-vred.html