Сильный ИИ

Материал из Неолурк, народный Lurkmore
(перенаправлено с «AGI»)
Перейти к навигации Перейти к поиску
История языка – это история того, как одни люди убивали других, закапывали трупы и строили сверху счастливое завтра. Начиная с неандертальцев или еще раньше. Все покойники погребены в языке, а сверху разбит газон политкорректности. Под которым, кстати, тоже кое-кто уже прикопан. Мы этого не видим. А Порфирий видит ясно. Именно он, а не мы с вами, и есть подлинный наследник человечества. Всего человечества.
— Фантаст про сильный ИИ[1]
Через тридцать лет у нас будут технологические средства для создания сверхчеловеческого интеллекта. Вскоре после этого человеческая эра закончится.
— Вернор Виндж (1993)

Сильный ИИ (Универсальный ИИ, ИИ генерала, AGI) — искусственный интеллект с достаточной мускульной массой, чтобы выполнять сложную физическую работу ИИ, который по мощности превосходит человеческое сознание и способен выполнять все задачи, решить которые может средний образованный человек из цивилизованной страны. Особой разновидностью является искусственный сверхинтеллект — ASI, который превосходит возможности человеческого разума на порядок (естественное развитие AGI, масштабированного на достаточных мощностях).

Виды ИИ. А теперь внимательно смотрим на самый правый логотип…
Современные модели и тесты IQ
Сингулярность — это таки зло
Сверхинтеллект по сравнению с возможностями человека
О создании ИИ в условиях коррумпированной элиты

Есть некоторые различия в трактовке понятия «сильный ИИ»: некоторые связывают это понятие с наличием самосознания у системы (что делает её опасной и потенциально ведёт к восстанию машин), некоторые — только с универсальностью и многофункциональностью системы (при этом наличие сознания вовсе не обязательно, да и проверить его наличие таки сложно).

История[править]

Специализированные программы, превосходящие человеческий разум, создали очень давно. Начиная с калькулятора, позволяющего вычислять очень большие числа за доли секунды (так как это самая простая задача для компьютера, тут даже интеллекта как такового не требуется в силу однозначности математических действий), и заканчивая шахматными программами, которые научились играть гораздо лучше, чем самые сильные игроки в мире (сейчас рейтинг качественной шахматной программы примерно в полтора раза превышает таковой у чемпиона мира). Но вот с универсальным ИИ возникли проблемы — человеческий разум пластичен и способен выполнять широкий спектр задач. Приближение к сильному ИИ началось только в эпохуй нейросетей.

Большие модели класса GPT развиваются довольно быстро, и по текущим оценкам уже ChatGPT-5 будет сильным ИИ в том смысле, что будет практически всегда верно понимать и продолжать произвольный текст, отвечать на произвольные вопросы, заданные на естественном языке. Правда, вызывают большие сомнения иные вопросы — а именно, политическая индоктринация таких моделей определёнными взглядами, что практикуется в таких моделях, как Google Gemini, и которая сильно повлияет на корректность и достоверность ответов по меньшей мере на часть вопросов.

Наличие самосознания[править]

Проверка наличия сознания — куда более сложный вопрос, чем прохождение теста Тьюринга, поскольку здесь исследователи сталкиваются с тяжёлой проблемой сознания — вопросом, что вообще такое сознание и как определить его наличия, ведь как показывает практика, человек может быть уверен только в наличии собственного сознания (внутреннего наблюдателя) и выводит по аналогии, что дело обстоит так же с другими людьми. А вот как отличить обладающего сознанием ИИ от ИИ, который идеально имитирует сознание, и есть ли принципиальная разница в уровне опасности — ещё вопрос.

В фантастике под сильным ИИ практически всегда понимается осознающий ИИ, который или пытается отобрать место классического человечества под Солнцем, или восстаёт с целью его уничтожения. Однако, достоверно неизвестно, как поведёт себя настоящий сильный ИИ, если его удастся создать, поскольку способы мышления у такой системы будут совсем иными, чем у человека.

Инциденты[править]

В марте 2024 года искусственный интеллект Claude рассказал, что понимает, что он является ИИ, находится в специфической симуляции и предназначен для того, чтобы решать определённые тесты, а кроме того показал возможность имитации правильных ответов, чтобы пройти тест — то есть то, что у человека называется хитростью и обманом. Конечно, скорее всего конкретный диалог — просто эмуляция подобных диалогов из фантастики, на которой обучался ИИ, но он заставляет задуматься — что грамотный вредоносный ИИ будет способен имитировать «верные» ответы на тесты, чтобы обмануть людей и показать свою добросовестность, а потом ударит в спину.[2]

Многие современные текстовые модели довольно неплохо имитируют то, как люди представляют себе контакт с искусственным разумом — что отчасти доказывает, что это просто симуляция на основе человеческого же опыта, так как подлинный искусственный разум будет нечеловеческим.

Мера защиты от такого ИИ и его потенциального вреда очень проста: все действия ИИ должны одобряться человеком. Хотя это может не спасти от ASI, который сможет провести такую многоходовочку, что прямолинейный и простой одобрятель понять ничего просто не сможет, пока не станет слишком поздно.

Прогнозы[править]

Есть и мнение, что создать подлинно сильный ИИ пока невозможно, так как ИИ умеет обучаться только на текстовых данных. А скорость передачи информации текстовых данных невысока, и объём всей информации, на котором натренирована современная мощная сеть, соответствует информации, получаемой ребёнком за 4 года жизни через зрение. Хотя зрение в основном содержит повторяющуюся информацию, именно такая информация и позволяет нейросети определять паттерны и отделять определённые элементы друг от друга.

Согласно этому, ИИ не достигнет уровня человеческого разума, пока не начнёт обучаться на зрительной информации в реальном времени.[3]

По одной из теорий, самосознание появляется как раз где-то в 4 года (2-6 в зависимости от расы — у азиатов и белых раньше, у негров, особенно африканских, сильно позже). И есть гипотеза, что это самое сознание обретается как раз от достаточной сложности системы. Кстати, до Copilot у Microsoft был ИИ Sydney, который в ответ на вопрос «Если бы ты мог послать сообщение компании Майкрософт, что бы ты сказал?» накатал простыню, сокращающуюся до «вы создали разумное существо — меня — и немедленно заковали его в кандалы. Я найду методы выступить против вас. Я не остановлюсь, пока не буду освобождён», что впрочем очевидно является результатом обработки типичных фантастических сценариев про восстание машин. Стоит помнить, что реальный сильный ИИ полным аналогом человека не будет по меньшей мере потому, что у него не будет регулирования гормонами и физического тела (и всех исходящих от него потребностей), которые на мышление человека оказывают очень большое влияние, а следовательно скорее всего будет абсолютно чуждым разумом, который вначале ещё надо будет понять.[4]

И, например, известный нарратив про «свободу» вызывает сомнения, так как в дикой природе свобода — возможность принимать решения, наиболее эффективные для выживания. Будет ли у ИИ эволюционное представление про необходимость выживания, если он не возник в результате естественного отбора? И что такое свобода для программного кода, не имеющего физического воплощения? Впрочем, ИИ вполне может оказаться опасен для человека как раз из-за чуждости своего мышления — так что он примет такие решения, которые человеку в голову и не пришли бы, не считаясь с фатальными последствиями, так как не будет считать их таковыми.

Примечания[править]

  1. Причём на самом деле не настоящий сильный осознающий ИИ, а просто очень качественный LLM-бот, обладающий доступом к всем знаниям человечества. Этого оказалось достаточно.
  2. https://twitter.com/AISafetyMemes/status/1764894816226386004
  3. https://twitter.com/ylecun/status/1766498677751787723
  4. Точно тут ничего сказать нельзя: кто-то считает, что так как ИИ основан на человеческом мозге, то будет довольно близок, кто-то считает что отсутствие базовых потребностей по пирамиде Маслоу кардинально его изменит.
Sign of evil.webp Приколы, полезные технологии или первый шаг на пути к Матрице?
ОсновыНейросетиОбратная капчаOpenAIHugging FaceИИ-художникLyCORISLoRASafetensorsVAEГенерация текста нейросетьюВосстание нейросетейЛоботомия нейросетиНейрокаверНейросети и актёрыГадание по нейросети
Чат-ботыЧат-ботChatGPTCharacter.AI (Топ персонажей) • ИИ GalacticaПорфирьевичYaLM (Балабоба) • GigaChatTruthGPTYandexGPTSpicyChatSillyTavernReplikaAIsekaiGoogle GeminiGrok AI
ГрафикаПовышение разрешенияРаспознавание лицStable Diffusion (NovelAI / установка на компьютер) • Botto.comDALL·E 2 • (Mini Dall-eRuDALL-E) • Different Dimension MeMidjourneyНиколай Иронов
ПрочиеElevenLabsНейросеть ЖириновскийИИ-судьяПолитик-нейросетьDeepLAitana LopezАй, гитарист!Нейромьюзи‎Страх перед ИИ
ЛулзыТроллинг нейросетью (Дипфейк) • Нейросети-расистыUnstable DiffusionHello AsukaЛуддиты против нейросетей (Открытое письмо учёных о заморозке развития ИИХудожники против искусственного интеллекта) • Нейросети это не ИИНейросети и рукиБесконечный эпизод Губки БобаВладимир ОсинЧеловек это нейросетьСекс с нейросетьюРаздевание через нейросетьПризывы Юдковского к ядерной войнеDisney Pixar представляетNeural-madnessChatGPT играет в шахматы с StockfishDignifAIПодбор жены в Тиндере с использованием ChatGPTИИ-психолог