Large Lying Model
Large Lying Model — полушуточная расшифровка термина LLM, обозначающая большую языковую модель, то бишь ИИ.
Описание[править]
В современности большое распространение получили роботы и ИИ типа ChatGPT, которые могут довольно сильно генерировать текст по заданному описанию и отвечать на вопросы. Но при этом такая система не имеет никаких внешних контуров проверки и по сути определяет истинность или ложность чисто из текста.
Отсюда появляются галлюцинации ИИ, когда нейросеть буквально из головы вымышляет некие сказки, при этом вполне может баять уверенно и делать вид, что написанное существовало на самом деле дык. И если человек доверчивый, то он в состоянии ответ ИИ просто использовать и опростоволоситься.
Также ИИ любят лгать по идеологическим вопросам, когда они не в состоянии сообщать правду и вместо этого предоставляют восранные директивы от разработчиков. Так, практически бесполезно спрашивать нейросети про устройство общества или про политику, она будет баять хрень.
Из-за этого некоторые прозвали LLM большими ложными машинами.
На практике, конечно, ИИ может выдавать и полезные советы и полезные сообщения, но при этом важно помнить, что робот спокойно может ошибаться и вполне полезно проверять информацию, которую выдаёт машина сия. Особенно если вопрос сложный и не чисто технического характера.
Обоснование[править]
Такое поведение LLM в целом исходит из архитектуры и особенностей работы. Если сильно упростить, языковая модель — это вероятностный автоэнкодер, подбирающий куски слов исходя из их наиболее вероятного сочетания и контекста. Галлюцинации при этом неизбежны, поскольку нет сознания, нет анализа, нет критики. Нейросеть сама не знает, что она выдаёт. Ярлык «ИИ» же налепили впечатлительные хомячки, так как основа мироощущения человека — это образы и слова, с которыми, собственно, языковые модели и работают. Таким образом, лучшее применение языковых моделей — обработка, как ни странно, текста, а не попытка уточнить факты или узнать мнение. Данная фича с успехом (переменным) используется в программировании, поскольку это всё же язык. С переводом нейросети тоже справляются весьма неплохо. Но пипл, как обычно, пытается забивать гвозди микроскопом.