Потребителски вход

Запомни ме | Регистрация
Постинг
15.03 14:48 - Защо Изкуственият Интелект не е Интелект
Автор: virtuals Категория: Други   
Прочетен: 465 Коментари: 0 Гласове:
2


Постингът е бил сред най-популярни в категория в Blog.bg Постингът е бил сред най-популярни в Blog.bg
Защо Изкуственият Интелект не е Интелект


През последните години, медиите упорито ни заливат с апокалиптични прогнози за опасното развитие на Изкуствения Интелект (ИИ). В основата на повечето от тях, стои погрешното разбиране, че ИИ е интелект и може да мисли и разбира по-добре от хората...
В същото време всячески ни се втълпява, че ИИ мисли и разбира по-добре от самите хора.
За да развенчаем тези митове за ИИ трябва накратко да разгледаме същността на днешните ИИ.

Трансформацията на човешката логика и информация в машинна е фундаментален процес в компютърните науки и Изкуствения Интелект. Процесът включва формализация, дефиниране и превод на мисловни матрици и мисловни процеси в структури, съвместими с машините. Това не е просто машинно копиране на човешкия интелект, а радикална трансформация на логика, мисловни матрици и модели в дигитално отражение.

Човешката логика е комплексна и сложна, контекстуална, относителна, аналогова и проникната от целия ни опит, интуиция и здрав разум.
Дигиталният Превод започва с абстракция и детерминиране на конкретния проблем до неговите важни точки, възли, връзки и т.н. логически отношения.

Човешката мисъл се трасформира в строги математически и/или логически системи.

• Булева логика (И, ИЛИ, НЕ, АКО-ТО и пр.) – основа на цифровите схеми.
• Предикатна логика – за представяне на обекти, свойства и отношения (За всеки Х, ако Х е човек, то Х е смъртен).
• Логическо програмиране (Prolog) – тук знанията се изразяват като факти и правила, а машината може да прави изводи на тяхна база.
• Ламбда пресмятане и функционално програмиране – логиката на функциите и сложните преобразувания.

От нашето езиково (понятийно) мислене се преминава към алгоритмизация, която е сърцевината на ИИ трансформацията.

• Алгоритъмът е краен, определен, подреден списък от стъпки за решаване на проблем(и).
• Човешките емпирики и евристики (практични правила, придобити от опит) се превеждат в евристични алгоритми (например за търсене на бърз свободен път).
• Индуктивната логика (от частни случаи към общи правила) се превръща в машинно обучение (подават се данни и очаквани резултати, а машината извежда собствено "логическо" правило/модел).

Има граници на алгоритмизацията и дигиталната трансформация.
Тук се крие основният проблем. Голяма част от човешката логика не може да се преведе машинно :

• Контекстът и комплексното знание (дълбокото фоново разбиране не се отчита).
• Парадокси, метафори, ирония и пр. се превеждат към формални правила с големи смислови загуби.
• Емоционална и етическа логика е непостижима – "Това е неправилно, въпреки че е съвсем логично." е дигитално непреводимо.

За тези и подобни случаи се използват сложни приближения (например при Големите Езикови Модели (ГЕМ) на ИИ, които усвояват статистически модели на човешки език и изразените мисли, без въобще да ги "разбират" логически).

Дигиталната трансформация има различни направления :

• Правила "АКО-ТОГАВА" (Експертни системи): Директен запис и дигитална трансформация на човешко експертно знание от специалисти.
• Диаграми на решенията (Decision Trees): Визуално и йерархично представяне на логиката за вземане на решение.
• Форми на верификация: Превод на различни изисквания (например "лифтът никога не трябва да се движи с отворена врата") в строги логически формули, които системата може да проверява.
• Невронни мрежи: Радикално различен подход – вместо експлицитна логика, се симулира имплицитно формирана логика чрез настройка на тежести в невронна мрежа, базирана на милиони различни примери. Това е само дигитална симулация на резултата от логическото мислене, а не превод на самата човешка логика.

Трансформацията на логиката се изразява в :

• От Аналогова към Дискретна. Човешката логика работи с непрекъснати мисловни комплексни спектри и нюанси. Машинната логика работи с твърди дискретни стойности (1/0, истина/лъжа).
• От Относително Непоследователна към Абсолютно Последователна. Хората толерират противоречия, относителност, неопределеност и неясноти. За машината те са фатални грешки, освен ако не са специално заложени.
• От Цялостна към Редукционистка. Човек обикновено вижда картината цялостно. Машината я разбива на отделни, последователни порции и операции.

Дигиталната трансформация не е като езиков превод, а по-скоро е картографиране и кодифициране на един естествен феномен (човешкия интелект) върху друг изкуствен съвсем различен такъв (дигиталната машина). Тук губим в контекст, нюанс, неопределеност, относителност и цялостност, но печелим в скорост, мащабируемост и обхват.

При съвременният ИИ (особено при машинното обучение) се прави опит да се заобиколи този груб превод, като се учи директно от данните. Така се симулират резултатите от човешката логика, без да има някакво разбиране.
Това е едновременно мощен ИТ инструмент, но и отваря дълбока празнина между човешкия и машинния интелект по отношение на реалността.
Различните направления на ИИ създават свои собствени, уникални информационни структури, които играят технически роли, псевдоаналогични на мисловните матрици и модели, по коренно различни начини и същност.

Large Language Model (LLM/ГЕМ) се базира на невронни мрежи и големи бази данни.
Невронните мрежи (най-вече дълбоките невронни мрежи) са доминиращата засега идея в съвременния ИИ и се характеризират с пренасяне на подобие на структури от биологичния мозък върху математически и изчислителни модели. Те са структурирани "отдолу-нагоре" чрез data-driven подход, който е радикално различен от символните и експертните ИИ системи.

Невронните мрежи са подобие на мощен интуитивен мултипроцесор – много добри в намирането на модели в хаоса, но лишени от способността за разбиране и логическо обяснение на получените решения.
Техният успех е в дигиталната симулация на резултатите на човешката интелигентност, а не в копирането на самите механизми на човешкото мислене. Съвременният напредък в ИИ се дължи преди всичко на статистически, дейта-задвижван подход, който обаче повдига сериозни въпроси за разбирането, надеждността, контрола и етиката.

При ИИ можем да говорим за два основни вида "заболяване" (халюцинация и дълбоко бълнуване). Това се прави по аналогията с човешката психика. Разграничаването им разкрива много за същността на системите с изкуствен интелект.

Ето как можем да разграничим "халюцинации" и "дълбоко бълнуване" в сферата на ИИ, като приемем, че използваме термините метафорично за описване на чисто технически явления.

"Халюцинации" на ИИ ("AI Hallucination")
е Фактологична грешка, произтичаща от статистическо отклонение в данните или модела.
Налице е генериране на убедителен, но фактически неточен (неверен) отговор. Моделът "измисля" дати, имена, събития, източници и пр., които не съответстват на реалността.
Причина за това е липсата на ground truth (референтна реалност) в обучението, прекалено приемане в корелациите от различни данни, шум в системата или противоречия в тренировъчния набор.
Например ИИ често твърди, че "Алберт Айнщайн е получил Нобелова награда за Теория на относителността през 1921 г." (Истината е, че тогава е получил наградата за фотоелектричния ефект).

"Дълбоко Бълнуване" на ИИ е метафора за много по-дълбок системен срив.
Това е Системно и последователно изкривено ИИ "схващане" или "убеждение", което моделът изгражда и защитава в своята вътрешна логика, дори при наличие на противоречиви данни и представени верни и точни контрааргументи.
Това не е единична грешка, а устойчив, погрешен псевдоментален модел (Догматична Машинна Информационна Матрица - ДМИМ), вграден в параметрите на невронната мрежа. Моделът не просто греши с факти – той изгражда комплексна, но фалшива наративна или каузална информационна структура.
Това са Системни псевдопредразсъдъци поради отклонения в данните за обучение, които водят до фундаментално погрешно псевдоразбиране на някои идеи и концепции. Това може да бъде и резултат от неочаквани emergent behaviors (аварийни поведения) в сложните невронни мрежи.
Например модел, обучен предимно върху корпоративни документи, може да развие "бълнуване", че печалбата е единствената и абсолютна цел на всяко човешко действие, и да интерпретира всички човешки мотиви само през тази информационна призма.
Друг пример - модел, който е "научил", че корелацията предполага връзка, може да влезе в "параноидно бълнуване" за причинно-следствени връзки, където въобще ги няма (Например "Понеже хората носят чадъри, когато вали, чадърите причиняват дъжд.").

Разграничението е много важно.
"Халюцинацията" на ИИ е локализиран "симптом" – проблем с конкретен изход. Може да се коригира с по-добри данни, техники за "grounding" или проверка на фактите.
"Дълбокото Бълнуване" е системна "болест" – проблем със самия вътрешен системен модел на ИИ. Коригирането му изисква преобучаване, промяна на архитектурата или коригираща интервенция в процеса на обучение, за да се премахнат изкривяващите псевдопредразсъдъци (ДМИМ).

Човек с халюцинация (примерно под въздействието на висока температура и пр.) вижда нещо нереално, което го няма, но може лесно да се върне към нормално състояние.
Човек с дълбоко бълнуване (параноидно разстройство) изгражда цялостна, алтернативна система от нереалистични убеждения, която филтрира и интерпретира цялата му вътрешна реалност (Напр., "Всички са срещу мен"). Тук лечението е много по-трудно.

При ИИ "бълнуването" е по-страшно, защото е системно и програмирано, а не случайно явление. То може да бъде тихо присъстващо в хиляди приложения, изкривявайки решенията на ИИ доста непренебрежимо, но незабелязано.

При пряка аналогия трябва да признаем, че ИИ може да страда както от "перцептивни грешки" (халюцинации), така и от "когнитивни изкривявания" (дълбоко бълнуване). Това показва, че сложните информационни системи, построени да симулират интелигентност, могат да възпроизведат не само част от силата, но и някои от слабостите на естествения интелект – но по коренно различни, техногенни причини. Това прави задачата за създаване на надежден ИИ още по-сложна и отговорна.

Бълнуването не е просто бъг, а е фундаментална характеристика на статистическите, вероятностни модели, които доминират при ИИ днес. То подчертава пропастта между човешкото познание (свързано с опит и проверка на реалността) и машинното псевдопознание (формирано от моделиране на вероятности в налични бази данни). Борбата с бълнуването е ключова за еволюцията на по-надеждни ИИ системи.

Бълнуването и халюцинациите са само единици от редицата фундаментални проблеми на съвременния ИИ, особено на системите, базирани на машинно обучение и Големи езикови модели.

Проблемите произтичат от една обща основа: съвременният ИИ (особено статистическият, базиран на данни) не разбира света, а формира сложни модели на корелации и компилации от данни. Той е "майстор на статистиката", но не и на разбирането за същността на нещата.

Все пак в ИИ съществуват сложни, йерархични, асоциативни информационни модели, които симулират някои аспекти на понятийното мислене.
Те обаче не са "понятия" или "мисли". Те са изчислителни артефакти – матрици, вектори, графи, правила, тежести и др., които реализират само функционалност без ментална същност и съдържание.

Това разграничение е критично важно не само за философията, но и за практиката. То ни предпазва от прекалени очаквания и ни насочва към разбиране на ИИ като мощна, но изцяло нементална система за обработка на информация.

ИИ системите не разполагат с понятия (мисловни матрици) като ментални съдържания със смислово натоварване, както е при хората. Те имат функционални еквиваленти – информационни структури, които изпълняват подобна роля в обработката на информация.
Символният ИИ има синтактични еквиваленти на понятията (символи).
Невронният ИИ има статистически еквиваленти (векторни елементи).
Трансформерите имат динамични, контекстуални еквиваленти и пр.

Това е фундаменталната разлика между симулацията на интелигентно поведение и естественото интелигентно мислене и разбиране. Моделът може да има сложна вътрешна геометрия с псевдопонятия, която му позволява да функционира, но тази информационна структура не е свързана с реален опит, реална сензорика и моторика, които са в основата на човешките понятия (мисловни матрици). Това са псевдопонятия без съзнание, псевдомисловни матрици без смисъл.
Може да ги определим само като Машинни Информационни Матрици.

Машинните Информационните Матрици манипулират данни и информация за намаляване на несигурността на резултата.
Мисловните матрици функционират в областта на съзнанието, интелекта и разума и включват опознаване и осъзнаване на реалността.
Човешките мисловни матрици възникват от биологичната еволюция, сензомоторен опит, собствена интенция и социална интеракция.
Машинните информационни матрици възникват изцяло от процедурата за оптимизация (градиентно спускане, максимизиране на вярност и т.н.) спрямо зададена цел (минимална грешка). Те са продукт на изчислителен, а не когнитивен процес.

В Дигиталната среда при ИИ виждаме плъзгане по повърхността на мисловните матрици, без достъп до дълбинната им ментална същност .
В този план трябва много да се внимава за влиянието на Виртуалната реалност и Виртуалната нереалност върху живота на хората (реалността) .

Информационните Технологии до скоро бяха дигитални информационни инструменти, които способстваха набирането, съхранението, обработката и трансфера на информация, но не заменяха мисленето на човека.
ИИ обаче днес идва с претенции да замени мисленето на хората. Т.е. вече е планирано от някои важни хора, ИИ да се програмира какво и как да мисли вместо хората занапред.
Въпреки че т.нар ИИ въобще (все още) не е интелект, мнозина прехвърлят не само търсенето и селектирането на информация на него, а дори и мисленето по определени въпроси и теми. Обикновено това се касае за области, където тези хора са лаици, любители и неспециалисти. Това способства те да приемат безкритично резултатите на ИИ. Т.е. те сами на практика вече изкривяват и подменят частично мисленето си. Опасността за дигитално изкривяване и подмяна на реалността е вече съвсем осезаем реален факт.

Ако сте специалист по определени теми, бързо ще установите, че ИИ (ГЕМ) все още е на нивото на функционално неграмотен ученик. Разликата между ИИ и човек-ученик е, че ИИ винаги съвсем лесно някак се оправдава за грешката и вместо да се спре и коригира, продължава да генерира нови и нови грешни резултати. Нерядко, когато му подадем проверени верни и точни данни, ИИ ги пренебрегва или преглежда повърхностно и продължава с грешните си резултати. Дори когато му подадете подробно аргументирано вярно и точно изложение, ИИ може да продължава да греши по зададената тема.

Днес, нашето собствено мисловно отражение на реалността все повече се формира от дигитални медийни потоци и алгоритмично селектирани, редактирани и генерирани от информационни платформи с ИИ и други дигитални среди.

Най съществената разликата между ИИ, интелект и разум е, че интелектът е продукт на разума, т.е. разумът стои зад интелекта. Зад ИИ няма Изкуствен разум! Зад него стои само човешки интелект. Последният както знаем (от Догматичните матрици) е ограничен, т.е. генезисът на ИИ е изначално ограничен. Да вярвате, че ИИ може да мисли и разбира, както хората е по-опасно за вашето развитие от вярата в бога Слънце ...


Книгата Догматичните Матрици е достъпна за изтегляне тук:
https://sfera.zonebg.com/knigi.htm

Статии по Информационна Психология може да изтеглите от тук:
https://research.zonebg.com/pubs.htm



Гласувай:
2



Няма коментари
Търсене

За този блог
Автор: virtuals
Категория: Други
Прочетен: 102306
Постинги: 24
Коментари: 0
Гласове: 8
Архив
Календар
«  Април, 2026  
ПВСЧПСН
12345
6789101112
13141516171819
20212223242526
27282930