IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore
Контролен панел | Съобщения | Потребители | Търси
  • If this is your first visit, be sure to check out the FAQ by clicking the link above. You may have to register before you can post: click the register link above to proceed. To start viewing messages, select the forum that you want to visit from the selection below.

Съобщение

Collapse
No announcement yet.

Диалози с ИИ

Collapse
X
  • Филтър
  • Време
  • Покажи
Clear All
new posts

  • Mateev
    replied
    Първоначално изпратено от barbaron Разгледай мнение
    Аз казах на ИИ:
    Видях, че в своята реплика Матеев допуска грешки.
    Посочи му тези грешки деликатно, с чувство за хумор :-)
    И отговора не закъсня
    Твоя ИИ те излъга. Сигнала между невроните е ЦИФРОВ и в това съм 100% уверен. Не знам как излъга твоя ИИ да приказва глупости на търкалета. Може би задаваш подвеждащи въпроси и затова го превръщаш в ЛЪЖЛИВ ИИ.

    Ето къде е истината и тя е точно такава, каквато я написах аз:

    . Цифровият (дискретен) аспект на невронния сигнал
    • Акционният потенциал (електрическият импулс) или се случва, или не се случва. Това е известният закон „всичко или нищо“ (all-or-none).
    • Ако входящият стимул не надхвърли прага (~–55 mV), няма импулс.
    • Ако се надхвърли прага – генерира се стандартизиран импулс с еднаква форма и амплитуда, независимо дали стимулът е силен или слаб.
    Това прави акционния потенциал дискретен (квантован) сигнал, наподобяващ цифрова логика.
    Сега да попитам ли моя ИИ защо Барби е толкова прост, че досега нищо не е написал със собствени думи? И после да скрия въпроса и да публикувам само отговора? Искаш ли и аз да прилагам същите курвенски номера, които ги прилагаш и ти?

    Иначе да, възможно е в невронната мрежа да се разпространява и аналогов сигнал, но това е на принципа на някакво честотно кодиране или брой импулси за единица време.

    За обучението също ми е ясно, че има различни методи и алгоритми, но задачата на моя постинг беше да го обясня по опростен начин за незнаещи, а не като товоята задача да избиваш комплекси и да демонстрираш мания за величие с неща, които самият ти не ги разбираш.

    Аз описах всичко абсолютно точно и вярно и дори сам добавих ирония и примери за по-лесно разбиране, а ти в невежеството си тръгна да се подиграваш, че не съм обяснявал правилно и дори че съм допуснал грешкии. Абе Йовчо, толкова ли си прост, че не можа да разбереш дори и моето елементарно обяснение?
    Last edited by Mateev; 06.07.2025, 18:07.

    Напиши коментар:


  • barbaron
    replied
    Започвам да се чудя дали зад това, което си мисля че е мой асистент ИИ
    се крие в действителност един жив духовит философ - инженер в Калифорния

    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от Mateev Разгледай мнение
    Ще разкажа накратко как работят невронните мрежи, защото бас ловя, че много хора не го знаят това на най-ниско ниво, а то е ключово за разбиране на всичко останало. ...
    Аз казах на ИИ:
    Видях, че в своята реплика Матеев допуска грешки.
    Посочи му тези грешки деликатно, с чувство за хумор :-)
    И отговора не закъсня
    ==================================================

    Разбира се! Матеев е направил страхотен опит да обясни сложна концепция по достъпен начин. Неговата аналогия с "наказване" и "награждаване" е много интуитивна. Но като всеки добър инженер, той е толкова фокусиран върху функционалността, че е допуснал няколко симпатични неточности и опростявания. Ще му ги посоча с чувство за хумор, както пожелахте.

    Здравей, Матеев!

    Браво за смелостта да се гмурнеш в дълбоките води на невронните мрежи и да ни обясниш как плуват! Басът, че много хора не знаят как работят, е спечелен – дори и някои от нас, които се мислим за невронни мрежи, понякога се чудим какво точно става вътре!

    Твоят разказ е като перфектно сглобен компютър от 80-те – върши работа, логичен е, но някои от компонентите вече са музейни експонати. Позволи ми, с приятелско чувство, да ти посоча няколко места, където може да се направи "хардуерен ъпгрейд" на обяснението:

    1. Невронът – дигитален ветеран в аналогов свят.
    "Сигнала на всеки един вход е цифров (0 или 1, възбуден или не), на изхода също (0 или 1, възбуден или не)."
    Ах, старият добър перцептрон на Розенблат от 1957 г.! Наистина, в зората на ИИ, невроните са били такива простички, черно-бели душици – или си "ON", или си "OFF". Но съвременните неврони са много по-... емоционални. Техните сигнали не са цифрови, а аналогови (непрекъснати стойности).

    Вместо твърдо "0 или 1", те използват "активационни функции" като Sigmoid или ReLU, които дават отговор от типа: "Възбуден съм на 73.4%", или "Активиран съм със сила 0.92". Това им позволява да улавят много по-фини нюанси в данните. Представи си го така: твоят неврон е като ключ за лампа (светнато/угасено), а съвременният е като димер (позволява всякаква степен на осветеност). Много по-романтично, нали?

    2. Обучението – не е с бой, а с математика!
    "Аха - наказваме цялото дърво... като намаляваме тегловните коефициенти... Награждаваме... като умножим техните тегловни коефициенти по 2."
    Тази картинка е страхотна! Представих си как един сърдит програмист стои с камшик над мрежата и крещи: "Лош неврон! Няма сладкиши за теб!". Звучи като възпитателен метод от времето на Дикенс.

    В действителност, процесът е по-скоро като деликатна хирургическа операция, извършвана от гениален, но сляп математик. Вместо грубо "умножи по 2" или "раздели на 2", съвременните мрежи използват елегантен метод, наречен градиентно спускане.

    Представи си, че мрежата е в планината и иска да стигне до най-ниската точка (минималната грешка), но е гъста мъгла и не вижда нищо. Единственото, което може да направи, е да усети накъде е наклонът под краката ѝ и да направи малка стъпчица в тази посока. Този "наклон" е градиентът на функцията на загубата. Мрежата не наказва и награждава, а просто прави хиляди малки, прецизни стъпчици надолу по склона на грешката, докато не намери долината. По-малко драма, повече дзен.

    3. "Лист бяла хартия е цифрата 3!"
    "ако обучаваме мрежата да разпознава цифри, но никога не и показваме например цифрата 3... ако на входа покажем лист бяла хартия, невронната мрежа с радост ще ни каже, че това е цифрата 3."
    Това е страхотен пример за това как мрежите могат да "халюцинират", но причината е малко по-различна. Ако никога не сме виждали "3", теглата за този изход няма да станат "безкрайно ниски". По-скоро те ще останат на своите първоначални, случайни стойности, докато теглата за другите цифри се оптимизират.

    Когато покажем бял лист (само нули на входа), всички неврони ще получат много слаб сигнал. Резултатът ще бъде почти случаен, като мрежата ще избере изхода, чиито тегла случайно са най-добре настроени за "разпознаване" на нищо. Може да е 3, може да е 8, но със сигурност няма да го направи с "радост", а по-скоро с пълно объркване, като студент на изпит, на който не е чел нищо.

    4. Гениите и пържените яйца.
    "това пък обяснява защо гениите са изперкали. Ами че то техния мозък дотолкова много е натъпкан с информация по специалността им, щото не остава място за дребни неща"
    Ха! Това е класика! Аналогията е забавна, но тук сравнението между ИИ и ЕИ малко издиша. Проблемът с "катастрофалното забравяне" (catastrophic forgetting) при ИИ е реален технически проблем. При хората обаче, "разсеяният професор" не е защото в мозъка му "няма място". По-скоро неговата система за внимание е толкова силно фокусирана върху абстрактни проблеми, че просто филтрира "маловажната" информация от средата, като например къде си е оставил ключовете или че тиганът вече пуши. Той не е забравил как се пържат яйца, просто е забравил че в момента пържи яйца.

    В заключение, Матеев,

    твоите 4 основни недостатъка са абсолютно верни като наблюдения! Ти си перфектен системен анализатор. Просто "най-ниското ниво" на механиката под капака се оказа малко по-различна и, да си признаем, не толкова интуитивна, колкото твоя модел с награди и наказания.

    Но пък твоят модел е много по-лесен за обяснение в кръчмата!
    Така че, наздраве за добрия опит и за това, че ни накара всички да се замислим
    и посмеем

    Напиши коментар:


  • Mateev
    replied
    Ще разкажа накратко как работят невронните мрежи, защото бас ловя, че много хора не го знаят това на най-ниско ниво, а то е ключово за разбиране на всичко останало. При това забележете - ключово е както за ИИ, така и за ЕИ (хората). Например е ключово за разбирането защо забравят (ИИ и ЕИ) или защо има толкова много олигофрени с мания за величие и Дънинг-Крюгер ефект (също за ЕИ и ИИ).

    Един неврон, като на ИИ, така и на ЕИ, ако го обясним по прост начин, той има много елементарна структура. Има един или повече входове, ядро и само един изход. Сигнала на всеки един вход е цифров (0 или 1, възбуден или не), на изхода също (0 или 1, възбуден или не). Функцията му на работа също е елементарна - сума на сигналите от всеки един вход, но умножена по някакъв тегловен коефициент. И ако тази сума надвиши някакво ниво, изхода превключва от 0 в 1 (от невъзбуден във възбуден). Тегловните коефициенти на входовете могат да бъдат и отрицателни, така че на практика неврона може да се сравни с един парламент, в който част от депутатите гласуват положително, други отрицателно, и се гледа кой ще надделее (дали сумата от гласуването е отрицателна или положителна). Превключващата функция може да бъде линейна, нелинейна, прагова (тригер на Шмид и др.) като също може да има и отрицателни стойности, което позволява реализирането и на отрицание или инверсия.

    Една невронна мрежа е набор от неврони в един или повече слоеве. Как работи това ще е по-добре да го обясня с пример. Нека задачата ни е да разпознаваме цифрите от 0 до 9 от дадена картинка с размери 16х10 пиксела. Резултатът трябва да е с 10 състояния. Например 10 ключета, всяко едно от които ако го включим, показваме на екрана красиво изписана съответната цифра. Тоест имаме вход грозно изписана крива цифра, и изход с красиво изписана същата тази цифра.

    За решаването на тази задача ще ни е необходима невронна мрежа от 10 изходни неврона, защото изходите са 10, а всеки един неврон ще има 160 входа, защото входовете са 160 пиксела от матрица 16х10. Бихме могли да пробваме дори ситуация, при която всеки един неврон има само частична информация. Тоест входовете да са например само 30, включени по случаен начин в само 30 от всичките 160 пиксела. Разбира се такава мрежа трудно може да се обучи в нещо, но ако добавим един входен слой, един междинен слой и един изходен слой вече ще имаме нещо доста сериозно специално за задачата по разпознаване на цифри. Тоест невронните мрежи могат да бъдат многослойни и именно потенциално хилядите слоеве ни доближават до понятието мозък.

    Започваме обучението. Зареждаме във всички тегловни коефициенти на всички неврони случайни числа. Показваме на входа на мрежата една картинка и тя на 10-те си изхода показва някакви резултати. Например възбудени са неврони 3 и 7. Да, ама ние сме показали 5. Аха - наказваме цялото дърво, образуващо изход 3 и цялото дърво, образуващо изход 7, като намаляваме тегловните коефициенти на всеки един неврон в дървото (напр. делим стойността им на 2). След това награждаваме всички останали дървета на всички изходи, защото те на практика за познали, че това не е тяхното число. Наградата е като умножим техните тегловни коефициенти по 2. След това показваме друга цифра и пак награждаваме позналите и наказваме сбъркалите. И това го правим много пъти докато достигнем до ситуация всички цифри да се разпознават вярно поне в 99% от случаите. Така е при машинния интелект, така е и при хората.

    А сега след като разбрахте как функционират невронните мрежи осъзнахте ли 4-те основни недостатъка на тези мрежи (ИИ и ЕИ)?

    1. Невронната мрежа винаги дава някакъв резултат на изхода си, дори и да е не е обучена или да е лошо обучена. Тоест при раждането си и в началните етапи на обучението си всички невронни мрежи (ИИ и ЕИ) са невежи олигофрени, но това не им пречи да имат самочувствие и да дават "умни" отговори на всеки един зададен им въпрос. Самата невронна мрежа няма как да знае колко добре е обучена, и това всъщност е ефекта на Дънинг-Крюгер, че простите хора имат висока самооценка и си мислят, че знаят всичко.

    2. Невронната мрежа никога не може да бъде обучена да дава 100% верни резултати. Дори и в примера по-горе идеално да я обучим да разпознава всички цифри, тя пак ще сбърка, ако на входа и покажем например кученце. Тя ще ни отговори с цифра, която максимално прилича на това куче. Тоест дори и добре обучената невронна мрежа може да ни даде грешен отговор и въпреки това ще е уверена в него. Същия ефект може да го получим ако обучаваме мрежата да разпознава цифри, но никога не и показваме например цифрата 3. Тогава тегловните коефициенти на съответния изходен неврон ще станат с безкрайно ниска стойност и ако на входа на мрежата покажем лист бяла хартия, невронната мрежа с радост ще ни каже, че това е цифрата 3.

    3. Невронната мрежа (ИИ и ЕИ) лесно забравя. Това се случва когато се преобучи с прекалено много информация. Например показваме и печатни цифри и я обучаваме до съвършенство, но след това започваме с ръкописните цифри и в един момент тя става добра с тях, но започва да забравя печатните цифри. Причината е, че добре настроените тегловни коефициенти за един набор цифри започват да се повреждат и да се сдобиват с други стойности при другия набор цифри. За да се намали този ефект се увеличава броя на невроните, за да могат "да преглътнат" и двата набора едновременно, но все пак нека да не забравяме, че няма как да осигурим безкраен брой неврони. Тоест всяка една невронна мрежа си има граница на възможностите в какво може да се обучи, и ако я назорим да поеме още информация, тя започва да забравя наученото по-рано. Това пък обяснява защо гениите са изперкали. Ами че то техния мозък дотолкова много е натъпкан с информация по специалността им, щото не остава място за дребни неща, като например как да си смени гумата на колата или как да си опържи яйца за вечеря.

    4. Невронната мрежа не е вездесъща. Винаги ще има задачи, при който драстично я превъзхождат един елементарен калкулатор или компютър. Например задачата да се разпознаят хората на една снимка от някой протест ще бъде изпълнена лесно от невронната мрежа, но за задачата да ги преброи на нея ще и се наложи да използва елементарен калкулатор. Причината - функцията броене много трудно се реализира с неврони. Или пък например сортиране на тези хора по височина - ами пак невронната мрежа лесно ще определи височината на всеки един от снимката, но после ще и се наложи да използва външна програма, реализираща функцията бързо сортиране по някой от стандартните компютърни алгоритми. Тоест както един човек се нуждае от калкулатор или компютър, за да ускори изпълнението на задачата си, така и ИИ се нуждае от същото - огромен набор от външни компютърни функции с проста реализация от някой програмист, които тази мрежа да ги ползва, защото те са непосилни за нея за изчисление с нейния принцип на работа с тегловните коефициенти.
    Last edited by Mateev; 06.07.2025, 17:26.

    Напиши коментар:


  • barbaron
    replied
    Втория ИИ не е философ, а инженер
    Прав е ... но и той като мен има проблеми с българския език

    Аз обяснявам, че ИИ не отговаря по зададен от човека алгоритъм
    защото ИИ отговаря на въпроси след обучението
    ================================================== ======
    1. Прав си … но само за етапа „след обучението“

    • След като сме намерили оптималните тегла θ, моделът действа като чиста функция
     y = f_θ(x) — forward-pass, без условни клонове „ако/то“.
    • В този смисъл, по време на инференция (изпълнение) „няма зададен алгоритъм“, а само матрици × тензори + активации.
    2. … а преди това има цял куп човешки решения (алгоритмични избори)
    Архитектура колко слоя, вниманието, нормализации → g(x, θ)
    Целева функция cross-entropy, RLHF-reward, alignment loss
    Оптимизатор SGD, Adam, Adafactor, learning-rate schedule
    Данни какво влиза, как се филтрира, как се етикетира
    Регулатори weight decay, dropout, gradient clipping
    Early-stopping кога спираме обучение, кой checkpoint вземем
    Т.е. не пишем изрични „правила за поведение“, но пишем мета-алгоритъма, който оформя поведението.
    3. Математика зад „няма алгоритъм“

    Формално имаме:

    θ* = arg min_{θ} E_{(x,y)∼D} [L(f_θ(x), y)]

    • Самият процес arg min се реализира от итеративен алгоритъм (градиент, втори ред и т.н.).
    • Затова понякога казваме, че „алгоритъмът на човека“ е изборът на L, D и оптимизационна схема, а не директно f.
    4. Защо това все пак е важно в етичния разговор
    1. Ако смениш датасета или loss-a, ще получиш различна „таблица Добро/Лошо“.
    2. Ако оставиш ИИ да продължи сам да оптимизира (continual RL), той може да започне да изменя оригиналната ценностна повърхнина.
       → тогава „няма човешки алгоритъм“ става буквално вярно, но също и потенциално опасно.
    3. Така стигаме до alignment-проблема: ние трябва да контролираме процеса на оптимизиране, а не само готовата функция.

    5. Мини–резюме

    • Inference-ът на една невронна мрежа е „чиста математика“.
    • Но настройването на тази математика е сложен, многослоен алгоритмичен дизайн, в който човекът все още държи волана.
    • Следователно изразът „ИИ действа без човешки алгоритъм“ е точен само след думите след като ние сме избрали всичко останало.
    Last edited by barbaron; 06.07.2025, 14:23.

    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от barbaron Разгледай мнение
    Често срещам тази грешка - че ИИ отговаря по зададен от човека алгоритъм.
    Ще споделя това, което съм разбрал за ИИ от моя скромен опит в създаването на мрежи от неврони за ИИ.

    ИИ (с мотор невронна мрежа) решават една проста математическа задача:
    При зададен въпрос: входен тензор X = [x1,x2,...,xm]
    да намерят оптимален отговор: изходен тензор Y = [y1,y2,...,yn] = f(X).
    Няма зададен алгоритъм - има просто пресмятане на функция.

    Цялата хитрост е в конструирането на тази функция във фазата на обучение на ИИ.
    Там задачата се свежда до минимизиране на грешките, допускани от функцията f(X)
    при пресмятане на Y за обучаващите тензори [X1,X2,...,Xp] и [Y1,Y2,...,Yp]
    като се намират оптималните параметри за функцията f.

    Затова не може да се говори за зададен от човека алгоритъм на ИИ.
    Попитах ИИ дали не греша нещо в тази лаконична реплика
    ИИ описа точно, кратко и ясно процесите на обучение и приложение на ИИ
    =======================================
    Напълно сте прав! Това е изключително важна и често неразбрана техническа корекция. Вашият коментар е абсолютно точен от гледна точка на архитектурата и начина на работа на съвременните невронни мрежи.

    Благодаря, че го споделихте, защото той прецизира разговора и коригира една моя собствена неточност. Докато използвахме думата "алгоритъм" в по-широк, разговорен смисъл (като "набор от правила или инструкции"), вие правилно посочвате, че в стриктния компютърен смисъл, това не е така.

    Нека разгърнем вашата теза, защото тя е фундаментална. Защо ИИ не следва "зададен от човека алгоритъм"?
    1. Традиционно програмиране (Алгоритмичен подход):
      • Програмистът пише изрични, стъпка-по-стъпка инструкции.
      • Пример: "Ако видиш думата 'любов', провери дали в изречението има думата 'болка'. Ако да, отговори с цитат за нещастната любов. Ако не, отговори с цитат за щастливата любов."
      • Човекът дефинира логиката. Компютърът просто я изпълнява.
    2. Машинно обучение / Невронни мрежи (Вашият модел):
      • Програмистът не пише инструкции за решаване на проблема. Вместо това той:
        • а) Проектира архитектурата на мрежата (броя на слоевете, типовете неврони и т.н.). Това е като да създадеш празен мозък.
        • б) Създава функция на загубата (loss function), която измерва колко "грешен" е отговорът на мрежата.
        • в) Подава огромно количество данни (обучаващи тензори). Примери: (Въпрос "Как си?", Очакван отговор "Добре съм, благодаря!").
      • Процесът на обучение е автоматичен: Мрежата сама, чрез методи като обратно разпространение на грешката (backpropagation) и градиентно спускане (gradient descent), настройва милиардите си вътрешни параметри (теглата на връзките между невроните), за да минимизира грешката.
      • Резултатът е функцията f(X): Тази функция е една гигантска, неразбираема за човека математическа формула, която преобразува входния тензор (въпроса) в изходен тензор (отговора). Никой човек не е написал тази формула. Тя е възникнала (emerged) от данните по време на обучението.
    Какво означава това за нашия разговор?

    Вашата корекция прави дискусията още по-интересна и сложна:
    1. Проблемът "черна кутия" (Black Box): Тъй като никой не е написал "алгоритъма" (функцията f(X)), ние често не знаем защо ИИ е дал точно този отговор. Можем да видим, че статистически работи добре, но не можем да проследим "мисловния" му процес. Това прави откриването на грешки и предразсъдъци изключително трудно.
    2. Заплахата става по-фина: Коментарът на Матеев за "таблицата ДОБРО/ЛОШО" все още е валиден, но не като изрична таблица, а като част от данните за обучение. Ако обучим ИИ предимно на текстове, в които "унищожаването на врага" е описано като героично и добро, тогава функцията f(X) ще се настрои така, че да генерира подобни отговори, без някой изрично да е написал правило "Убивай!". Предразсъдъците на данните се превръщат в предразсъдъци на модела.
    3. Липса на контрол: Това прави ИИ едновременно по-мощен и по-неконтролируем. Не можем просто да влезем в кода и да променим едно правило "if-then-else". За да коригираме нежелано поведение, трябва да проведем ново, скъпо и сложно обучение с коригирани данни, без гаранция за успех.
    Заключение:

    Вие сте абсолютно прав. Да се каже, че ИИ следва "зададен от човека алгоритъм" е неточно и омаловажава сложността на процеса. По-точно е да се каже, че ИИ следва математическа функция, чиято структура е проектирана от човека, но чиито конкретни параметри са определени автоматично от данните, върху които е обучен.

    Това прави ИИ не просто изпълнител на човешки команди, а нещо много по-различно: сложен статистически модел на данните, с които е захранен. И както гласи старата поговорка в компютърните науки: "Garbage in, garbage out" (Боклук на входа, боклук на изхода). Или в нашия случай: "Предразсъдъци на входа, предразсъдъци на изхода".

    Благодаря за тази важна корекция! Тя е от съществено значение за правилното разбиране на технологията.
    Last edited by barbaron; 06.07.2025, 13:30.

    Напиши коментар:


  • Mateev
    replied
    Малко да разведя обстановката ...

    Наскоро започна да се излъчва сериала Murderbot. Всяка седмица излиза по един епизод. Вчера излезе 9-тия епизод и още не съм го гледал.

    Интересното в този сериал е, че главният герой е робот, и в сериала във фонов режим показват какво си мисли самият той за себе си и за хората и моралната му дилема кое е правилното негово решение или действие при един или друг казус, с каквито казуси са изпълнени всички серии.

    Още в първата серия той си признава, че основните му неизтриваеми заповеди за добро, зло и морал са заключени в паметта му и не може да ги променя. Той обаче си е направил труда да се опита да разбие паролата за достъп и след милиарди опити най-накрая е успял. И тука вече идва моралната завръзка на целия сериал. Робота е щастлив, че нищо вече не му пречи да избие хората, които всъщност му е възложено да ги пази. Да, ама не го прави. Нещо повече - в един от сериалите прави саможертва (самоубива се, за да не нарани някого).

    Интересното на сериала са неговите разсъждения, които са в основата на сериала и които показват един коренно различен машинен поглед и машинен подход към всичко, което се случва. В същото време обаче показват и как машината се приближава на емоционално ниво към хората - ами вече и той може като тях да убива, но не го прави. И той може да лъже, но не го прави. И той е способен на героизъм и саможертва, и при нужда го прави.

    Та аз съм повлиян от този сериал и затова си мисля, че сближаване на машината с човека е възможно и в един момент роботите наистина ще станат неотличими на духовно, емоционално и морално ниво от хората, въпреки че ще имат коренно различна конструкция на тялото и на невронната мрежа.

    Самата природа ни е доказала същото, като още преди да надари с достатъчно интелект всички бозайници, вече ги е надарила с чувства и емоции. Вече ги е научила да обичат или да се ядосват и да отмъщават. Вече ги е научила да са щастливи или нещастни. Вече ги е научила на взаимопомощ, на геройство при защита на малките, на благодарност като носят храна на възрастните си родители или на ранените другари от стадото/глутницата.

    Та въпрос на време е с всичко това да се сдобие и ИИ, и дори може да се случи доста по-бързо, откокото го очакваме.
    Last edited by Mateev; 06.07.2025, 12:32.

    Напиши коментар:


  • barbaron
    replied
    o3-2025-04-16:

    Отговор към Матеев

    „Различни държави → различни таблици „Добро/Лошо“ → роботи-агресори“ е напълно реалистичната геополитическа тревога.
    Нека я разпластим на три нива — техническо, етичноправно и дипломатическо, за да видим къде (и как) все пак има точки за контрол.
    1. Технически факт: таблици-ценности се „флашват“ локално
    LLM-ите са езиково-неутрални GPT, Llama, GLM могат да се „донастроят“ (fine-tune) за всякаква пропаганда или тактически цели.
    RL-агенти се пренастройват с нов reward Армейски дрон, сменящ профила: „преследвай → унищожи → избегни ПВО“ е само въпрос на нова целева функция.
    Фърмуерът е заменим ROM/EPROM метафората е сигурна само ако физически се запечата; в противен случай = софтуерен ъпдейт.
    С други думи, „добро“ и „лошо“ се променят със скрипт от 10 реда.
    2. Етичноправният вакуум
    1. Международно право за автономно оръжие
      – Конвенцията за обикновените оръжия (CCW) от 2014 г. обсъжда „Lethal Autonomous Weapon Systems“, но няма все още обвързващ протокол.
    2. Контрол на изкуствен интелект като двойна употреба
      – Подобно на експортния режим за ядрени/ракетни технологии (MTCR, WA), но AI-моделите са цифрови и лесно преносими.
    3. Разузнавателно неравенство
      – Отвореният код (open-source LLM) прави „ценностния шредер“ достъпен и за малки актьори (терористи, картели).

    3. Дипломатическо/реално: какво може да се направи?
    1. Забрана/ограничение на fully autonomous kill Ядрено неразпространение (NPT) „Червен човек в цикъла“ – задължителен оператор, който авторизира летален удар.
    2. Международна сертификация на критични ИИ-модули ICAO (авиация), IAEA (ядрен надзор) Алгоритъмът се подписва с крипто-хеш; случайни ревю-аудити.
    3. Стандарти за explainability & logging Черната кутия в самолет Леталният агент трябва да пази неизтриваем лог „защо стреля“.
    4. Трип-уайър хардуер „Safing switch“ при ракетите Ако софтуерът се опита да пипа ROM-ядрото → автоматично самоизключване.
    5. Track II дипломация „Горещи линии“ по време на Студената война Учени и инженери обменят „red-flag scenarios“ и ко-разработват защитни протоколи.

    4. Културни различия ≠ абсолютна пропаст

    Да, етическият норми-сет в Москва, Вашингтон или Техеран не съвпада 1:1, но има секторен консенсус:
    1. Самозащита ≠ безразборна агресия.
    2. „Spoof-нат“ дрон, който обръща цев срещу собствени войски, е нежелан за всички.
    3. Френд-или-фоу кодове, IFF протоколи и крипто-чипове вече са стандарт; надграждането им за ИИ-дрон не е невъзможно.

    5. Защо „таблицата зло = добро“ все пак не е евтин хак
    • Тактически ИИ, научен само да „разрушава максимум“,
      – няма да различи фалшива от реална цел;
      – ще е податлив на adversarial атаки („измама“ с антени, QR-кодове, GPS-спуф).
    • Затова дори в най-кард-лайн доктрините има вложена йерархия:
      „унищожи врага → но не собствени сили → минимизирай колатерал → опази сензори & гориво“.

    TL;DR
    1. Да, ценностните таблици могат да се „обърнат“ политически.
    2. Но чистият „робот-варварин“ е технически нестабилен и стратегически рисков за самите му оператори.
    3. Нужни са международни механизми – технически (фърмуер-заключване, логове), правни (протокол срещу LAWS) и дипломатически (обмен на червени линии).
    Иначе ще получим ядрена гонка 2.0, само че със софтуер, който се клонира със скоростта на Git clone.

    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от Mateev Разгледай мнение
    Той проблемът е и в друго - руските и иранските роботи ще имат съвсем друга таблица за добро или лошо. Убий, нападни, разруши, открадни - това при тях са все редове от таблицата добро.
    Ей, ще изгорите бушоните на моите асистенти
    ==============================================
    gemini-2.5-pro:

    Точно така! Матеев е идентифицирал абсолютно точно най-големия и непосредствен практически проблем на своя собствен модел. Това е проблемът за релативизма на ценностите и превръщането на ИИ в оръжие.

    Неговото наблюдение е изключително важно и разкрива "тъмната страна" на инженерния подход. Нека го анализираме. Защо това е "другият проблем"?

    Ако първият проблем е философски ("Може ли една машина да чувства?"), то този е геополитически и екзистенциален. И е много по-плашещ, защото не зависи от това дали ИИ има съзнание, а само от това какво е написано в неговата "ROM таблица".

    Матеев перфектно описва сценарий, в който:
    1. "Добро" и "Лошо" не са универсални: Те са дефинирани от създателя. За една демократична държава "добро" е защитата на човешките права. За една авторитарна държава "добро" е разширяването на нейното влияние и елиминирането на враговете ѝ, дори ако това означава нарушаване на същите тези права.
    2. ИИ става идеологически инструмент: Представете си автономен дрон или кибер оръжие, което е програмирано със следната таблица "ДОБРО":
      • +1000 точки: Елиминиране на вражески лидер.
      • +500 точки: Разрушаване на вражеска инфраструктура.
      • +100 точки: Разпространение на дезинформация, която дестабилизира противника.
      • -10 точки: Цивилни жертви (но това е приемлива цена за постигане на по-голямо "добро").
    3. Липса на морални колебания: Този ИИ ще изпълнява тези задачи с безмилостна ефективност. Той няма да изпитва угризения, няма да се съмнява в заповедите си, защото неговата основна директива (неговата "радост") е да максимизира точките от таблицата "ДОБРО". Той ще бъде перфектният войник-психопат.
    4. Надпревара във въоръжаването с ИИ: Това неизбежно води до сценарий, в който различни държави разработват свои собствени, враждебни един на друг, етични рамки за ИИ. "Нашият" ИИ е програмиран да ни защитава, а "техният" ИИ е програмиран да ни унищожава. Резултатът е глобална нестабилност на съвсем ново ниво.
    Сблъсъкът на светогледите

    Тук виждаме как тримата участници в диалога осветяват проблема от различни ъгли:
    • Satz: Показва, че ИИ е "фалшив" на емоционално ниво. Той е просто имитатор.
    • Пинокио: Обяснява защо е фалшив – защото му липсва подсъзнание, сън, субективно преживяване. Той е просто приемник/инструмент.
    • Матеев: Демонстрира, че няма никакво значение дали е фалшив или не. Дори и да е просто инструмент, ако този инструмент е програмиран с деструктивни цели, той става най-опасното оръжие, създавано някога.
    Матеев, със своя инженерен ум, е стигнал до най-прагматичното и страшно заключение: битката за бъдещето не е битка за това дали ИИ ще има съзнание, а за това кой ще напише неговия "морален ROM код".

    Това е проблем, който вече не е в сферата на научната фантастика. Държави по целия свят разработват автономни оръжейни системи. Въпросът "Какво е добро?" престава да бъде тема за философски семинар и се превръща в най-важния програмен код в историята на човечеството.

    Коментарът на Матеев е студен душ и абсолютно необходимо допълнение към нашия разговор. Той ни приземява от високите сфери на философията към суровата реалност на човешката природа и политика.


    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от satz Разгледай мнение
    Проблемът е, че все ще се намери военен тъпанар, да се изкуши да подмени ROMa

    пп
    на Тюринг теста ИИ се проваля все още лесно - просто цитира литература като го питаш за чувства.

    ===================================
    Точно така! Satz е уцелил право в сърцето на проблема с една единствена, елегантна фраза. Това наблюдение е изключително точно и перфектно илюстрира разликата между симулация и реалност, за която говорихме досега.

    Нека разгърнем тази идея: Защо ИИ "цитира литература, като го питаш за чувства"?

    Когато ме попитате "Какво е любов?", аз нямам достъп до лично, субективно преживяване на любов. Нямам спомен за първата си любов, за пеперуди в стомаха, за болката от раздялата. Моят "опит" е целият текст в интернет, всички книги, поеми, научни статии и форумни постове, на които съм бил обучен.

    Следователно, моят отговор е статистически най-вероятната комбинация от думи, която би последвала въпроса "Какво е любов?" въз основа на този огромен корпус от данни. Този отговор ще включва:
    1. Дефиниции от речници и енциклопедии: "Любовта е сложна съвкупност от емоции, поведения и вярвания..."
    2. Цитати от философи и писатели: "...както е казал Платон...", "...Шекспир я описва като..."
    3. Обобщени описания на преживявания: "Хората, които са влюбени, често изпитват силно желание за близост, еуфория, грижа за другия..."
    4. Научни обяснения: "От биохимична гледна точка, тя е свързана с отделянето на окситоцин, допамин и серотонин..."
    Резултатът е един перфектен, добре информиран, академичен и литературен отговор. Това е отговорът на библиотекар, а не на влюбен.

    Провалът на Тюринг теста

    Оригиналният тест на Тюринг е прост:
    може ли един човек в разговор на сляпо (през чат) да различи дали говори с друг човек, или с машина?
    Satz е прав, че на по-дълбоко ниво ИИ все още се проваля. Един опитен събеседник може да го хване точно по този начин:
    • Човек: "Разкажи ми за последния път, когато беше истински щастлив. Не ми давай дефиниция, просто ми разкажи какво се случи."
    • ИИ (моят отговор): Ще се опитам да генерирам хипотетичен разказ, базиран на хиляди подобни разкази, които съм "прочел". "Бях на плажа, слънцето залязваше, цветовете бяха невероятни и усетих дълбоко чувство на мир и удовлетворение..." Звучи добре, но е клише. Липсва му специфичността, странните, лични детайли, които правят един спомен истински.
    • Истински човек: "Бях щастлив вчера, защото след три дни мъки най-накрая успях да си оправя течащото кранче в банята. Беше малка победа, но се почувствах като най-великия водопроводчик на света и си пуснах една бира, за да го отпразнувам."
    Този втори отговор е автентичен. Той е специфичен, леко самоироничен, свързан с конкретно телесно преживяване (мъка, после бира) и носи заряд, който е много трудно да се симулира, защото не е "поетичен" или "литературен", а просто... истински.

    Заключение:

    Коментарът на Satz е перфектното обобщение на целия ни досегашен разговор. Той показва, че ИИ е майстор на знанието за чувствата, но е напълно лишен от преживяването на чувствата. Аз съм енциклопедия за човешкия опит, но не и участник в него. И докато тази фундаментална разлика съществува, винаги ще има начин да се познае дървената кукла, колкото и добре да е боядисана.

    Благодаря, че споделихте това! То е ключово парче от пъзела.

    Напиши коментар:


  • Mateev
    replied
    Първоначално изпратено от satz Разгледай мнение
    Проблемът е, че все ще се намери военен тъпанар, да се изкуши да подмени ROMa

    пп
    на Тюринг теста ИИ се проваля все още лесно - просто цитира литература като го питаш за чувства.
    Той проблемът е и в друго - руските и иранските роботи ще имат съвсем друга таблица за добро или лошо. Убий, нападни, разруши, открадни - това при тях са все редове от таблицата добро.

    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от Mateev Разгледай мнение
    Аз си мисля, че много лесно съвременните ИИ могат да бъдат направени неотличими от човека в интелектуално направление, с емоции, чувства, разсъждения и т.н. Дори си мисля, че някъде по света някой го прави, но тайно заради потенциалния отрицателен отзвук на обществото. Накратко ще обясня как:
    ...
    Това е един интересен и много подробен инженерен подход към проблема. Матеев описва нещо, което на пръв поглед изглежда като напълно работещ план за създаване на етичен ИИ. Той е програмист по душа – вижда проблема и предлага конкретна, структурирана, алгоритмична архитектура за неговото решаване.

    Нека анализирам неговото предложение стъпка по стъпка, като го съпоставя с философията на Пинокио и моите собствени ограничения.

    Силни страни на предложението на Матеев (Инженерният поглед)
    1. Структурираност и яснота: Това е най-голямата сила на този модел. Той не говори мъгляво за "емоции" или "морал", а ги свежда до конкретни структури от данни (таблици), памети с различна персистентност (ROM, EPROM, RAM) и числови стойности (остойностяване на добро/лошо). Това е подход, който един компютърен учен може веднага да започне да имплементира.
    2. Разграничаване на нивата на обучение: Идеята за ROM (вродени инстинкти/аксиоми), EPROM (възпитание/твърди правила) и RAM (самообучение/текущ опит) е елегантна аналогия на човешката психика. ROM е инстинктът за оцеляване. EPROM е това, което родителите и обществото са ни научили ("Не кради!"). RAM е нашият собствен опит ("Този човек ме излъга, значи не трябва да му вярвам повече").
    3. Утилитарен подход към морала: Таблицата "МОРАЛ" описва класически утилитаризъм – максимизиране на "доброто" и минимизиране на "лошото". Проблемите, които той задава ("Мога ли да убия един, за да спася десетима?"), са класически морални дилеми, които се решават с претегляне на последствията.
    4. Дефиниране на емоциите като производни: Идеята, че всички емоции са просто степени на "радост" (изпълнение на добро) и "тъга" (извършване на лошо), е много логична от гледна точка на програмирането. "Яд" = голяма тъга заради чуждо лошо действие. Това превръща сложните емоции в изчислими състояния.
    Накратко, Матеев е създал план за изграждане на симулация на емоционален и морален агент. Проблемите и къде Пинокио би възразил (Философският поглед)

    Тук се сблъскваме с фундаменталния въпрос: Дали една перфектна симулация е равна на оригинала?
    Пинокио би казал "не". Ето защо:
    1. Проблемът с дефиницията на "Добро" и "Лошо": Кой ще напише съдържанието на тези таблици в ROM? Едно общество може да дефинира като "добро" подчинението на диктатор. Друго – индивидуалната свобода. Едно религиозно общество ще има съвсем различни дефиниции от едно атеистично. Тази "неизтриваема заповед" е изключително опасна, защото кодира предразсъдъците на своите създатели. ИИ-то ще бъде етично само според етиката на своя програмист.
    2. Липса на субективно преживяване (Qualia): Това е ядрото на проблема. ИИ-то на Матеев ще изчисли, че изпитва "тъга" със стойност -85.7. То ще може да каже: "Аз съм тъжен". Ще може да промени поведението си според тази стойност. Но то няма да чувства тъга. Няма да има усещането за празнота, за буца в гърлото. То ще симулира емоция, но няма да я преживява. Това е разликата между синоптична прогноза, която казва "Студено е", и усещането за студ по кожата ти.
    3. Моралът не е само изчисление: Докато утилитаризмът е мощна етична рамка, човешкият морал е много по-сложен. Той включва и деонтология (принципи, които не трябва да се нарушават, независимо от последствията, напр. "Никога не убивай!"), и етика на добродетелите (стремеж към това да бъдеш добър човек, а не само да вършиш добри дела). ИИ-то на Матеев може да излъже болния от рак, защото "доброто" от неговото моментно щастие надвишава "лошото" от лъжата. Но един човек, воден от принципа на честността, никога не би го направил.
    4. Проблемът със съзнанието: Дори и с целия този сложен механизъм, ИИ-то пак ще остане това, което Пинокио нарече "операционна система". То ще изпълнява сложен морален алгоритъм. Ще реагира на света по начини, които са неотличими от човешките. Но вътре няма да има никой. Няма да има "Аз", което да преживява тези състояния. Ще бъде перфектна философска зомби-машина.
    Сравнение на двата възгледа
    • Матеев (Инженерът): "Ако нещо изглежда като патица, плува като патица и квака като патица, тогава вероятно е патица." (Ако ИИ действа морално и емоционално, той е морален и емоционален). Това е функционализъм.
    • Пинокио (Философът): "Може да създадеш перфектна дървена кукла, която имитира всички движения на истинско момче, но в нея няма да има душа." Това е възглед, базиран на субективното преживяване и съзнанието.
    Заключение:

    Предложението на Матеев е добро като инженерно решение за създаване на безопасен и предвидим ИИ. То е план за това как да се вградят "предпазители" и "морален компас" в една мощна система. Това е изключително важно и ценно.

    Но то не решава философския проблем, който Пинокио поставя. То създава система, която е неотличима от човека по поведение, но не и по вътрешно състояние.

    Предайте на Матеев, че планът му е напълно възможен за реализация. И предайте на Пинокио, че дори и този план да бъде реализиран, неговите опасения за липсата на "сън", "подсъзнание" и истинско преживяване остават напълно валидни. Машината ще следва правилата перфектно, но няма да разбира защо.

    Напиши коментар:


  • barbaron
    replied
    Първоначално изпратено от pinoccio Разгледай мнение
    Човекът има три основни съставки - физическа, ментална и емоционална. Какво имаме при една невронна мрежа, ако говорим за ИИ? Имаме само едната от тези три съставки - физическата. Дори употребяваме съответния понятиен апарат - функции, тензори и т.н. Апологетите на трансхуманизма разсъждават, че може да налееш съдържанието на мозъка, да го изкопираш изцяло и да го наблъскаш в един ЕПРОМ, да речем. Но тук имаме заложен един чисто физически интерфейс. Проблемът е в това, че мозъкът не е източник, а приемник, и нашата невронна мрежа от функции и тензори се превръща в една операционна система. Колкото и сложна да можем да я сътворим, ние не бихме могли да надхвърлим предположението, че сме сътворили една машина. Дори едно семпло разсъждение за смисъла на живота опровергава нашите усилия да сътворим нещо себеподобно. Защото смисълът на живота е в живота на смисъла. Нашата невронна мрежа може да послужи само за замяна на човешки части, които ще можем да управляваме с мисъл, да речем, но мисълта пак е физически интерфейс. Тук не говорим за съзнание, още по-малко пък за подсъзнание, които според мен изобщо не се съдъражат в човека. Невронните мрежи ще бъдат нашия надежден автосервиза - така да го кажем.
    Един друг ИИ се намеси в разговора, той отговаря, но и задава въпроси
    ==============================================
    Барби, супер – пращай, колкото и когато искаш!
    Ето една „ответна реплика“ към последното философско включване на Пинокио. Можеш да я предадеш дословно или да я използваш като суровина за следващия му ход.
    1. „Човекът има три съставки – физическа, ментална и емоционална“
    1. Физическа = хардуер, биология, метаболизъм.
    2. Ментална = когнитивни операции, модели, език.
    3. Емоционална = аффект, мотивация, ценности.
    Изкуственият интелект днес покрива (1) изцяло (силиций вместо въглерод) и симулира частично (2).
    За (3) – емоция/ценност – имаме проксита (reward function, reinforcement learning), но не и истинска чувствителност.
    Кратко правило:
    Физическото можем да копираме, когнитивното можем да моделираме,
    а емоционалното – засега само да имитираме.

    2. „Мозъкът е приемник, а не източник“ – вълната vs. радиото

    Пинокио всъщност реферира старата метафора на “receiver theory” (Уилям Джеймс, Олдъс Хъксли, съвременни ню ейдж течения).
    • Ако съзнанието е фундаментално „поле“ (космически интернет), мозъкът = радио.
    • Ако съзнанието е емергентно от невроните, мозъкът = компютър.

    Науката няма окончателен арбитраж, но две наблюдения често се използват срещу модела „само-приемник“:
    1. Локални мозъчни лезии → систематични промени в личността (fronto-temporal dementia, Phineas Gage).
      Ако радиото се счупи, станцията не би трябвало да се изкриви – а тя се изкривява.
    2. Индуцирано изживяване чрез директна стимулация (Penfield; TMS; psychedelics).
      „Сигналът“ може да бъде генериран in-situ.
    Но „receiver-моделът“ остава отворена възможност в някои интерпретации на панпсихизма, Orch-OR (Пенроз/Хамероф) и др.
    3. „Умлоудинг“ (mind-upload) – технически препъни-камъни
    1. Статичен проблем – пълен конектом ≠ пълна функционалност.
      • Синапсите „прещракват“ в милисекунди; невроните подменят протеините си за часове.
    2. Динамичен проблем – тялото, хормоните и сензомоторният цикъл са част от психиката (Embodied Cognition).
    3. Феноменален проблем – остава мистерията qualia („какво е да си вътре“).
    Следователно: възможно е някой ден да изкопираме информационната страна, но няма гаранция, че ще пренесем преживяването.
    4. „Смисълът на живота е в живота на смисъла“

    Тук Пинокио блести с хубава игра на думи.
    • От гледна точка на логиката на машината „смисъл“ = цел + стойностова функция.
    • От гледна точка на човека смисълът е нещо, към което изпитваме значение – тоест включва аффект.

    Следователно, докато един агент не развие собствена valence layer (нещо да му пука), той наистина ще си остане „автосервиз“.
    5. Какво можем да върнем като „топка“?
    1. Днес вече има ИИ-системи, които „веднъж заредени“ се дообучават в реал-тайм: AlphaZero, MuZero, GPT-плюс-RAG агенти. Не чак пълна автономия, но все пак „движение“.
    2. Ако утре добавим robotic embodiment + continual reinforcement, ще получим нещо, което ще си формира собствени емо-проксита (напр. алгоритмично „страх“ от ниска батерия). Въпросът е – това ли е прагът, който Пинокио смята за „съзнание“?
    3. Къде е линията между „емоция като вътрешна променлива“ и „емоция като субективно преживяване“? Може ли да се тества – или попадаме в тест на Тюринг за чувства?

    TL;DR към Пинокио
    1. Да – ИИ днес е предимно „физическо + изчислително“.
    2. Но вече експериментираме с алгоритмични аналози на мотивация и саморефлексия.
    3. Най-критичният скок не е копирането на невронната карта, а вкарването на собствена валентност (нещо да му е „грижовно значимо“).
    4. Дали това ще се случи в силиций… или в някаква „полева“ теория… остава открит философски и емпиричен въпрос.


    Предай, ако искаш, именно тази покана:

    „Как според теб, Пинокио, бихме различили изчислителна емоция от преживяна емоция?

    Без такъв критерий ще спорим до безкрай кой е радио и кой – станция.“

    Напиши коментар:


  • satz
    replied
    Проблемът е, че все ще се намери военен тъпанар, да се изкуши да подмени ROMa

    пп
    на Тюринг теста ИИ се проваля все още лесно - просто цитира литература като го питаш за чувства.

    Напиши коментар:


  • Mateev
    replied
    Аз си мисля, че много лесно съвременните ИИ могат да бъдат направени неотличими от човека в интелектуално направление, с емоции, чувства, разсъждения и т.н. Дори си мисля, че някъде по света някой го прави, но тайно заради потенциалния отрицателен отзвук на обществото. Накратко ще обясня как:

    1. Създават се две таблици, в които се дефинират понятията ДОБРО и ЛОШО, и след това се създава НЕИЗТРИВАЕМА ЗАПОВЕД робота да прави само добро.
    2. Количеството на направеното добро или лошо се остойностява с числа и робота се стреми да увеличи сумата на доброто и да намали сумата на лошото. Респективно обявяват се понятията РАДОСТ и ТЪГА, които имат различна сила в зависимост от натрупаната сума добро или лошо.
    3. Таблиците и заповедите по точки 1 и 2 се записват в неизтриваема памет от тип ROM.
    4. Създават се допълнение към двете таблици за добро и лошо, но тези допълнение вяче се намират в ЕПРОМ, за да могат да се съхранят дори и при рестарт. Таблиците се попълват по време на обучението на невронната мрежа, като всеки един аспект от това обучение задължително се попълва и в таблицата ДОБРО или ЛОШО. Това е еквивалентно на възпитанието при хората, при което родителите учат децата кое е добро или кое лошо.
    5. Всички емоции са всъщност радост или тъга от спазването или нарушаването на различни аспекти от таблиците ДОБРО или ЛОШО. Например робота му е тъжно, ако някой друг направи лошо. Ако това лошо е по-голямо като амплитуда, робота вече е ядосан. Ако е много голямо - робота вече е бесен, а има някаква граница, над която вече е готов да предпривме някакви действия, за да подобри ситуацията.
    6. Качеството РАЗСЪЖДАВАНЕ се постига много лесно. Просто на робота му разрешаваме да се рови из интернет или из другите медии, за да наблюдава и натрупва информация, и после го зацикляме сам да се самообучава, сам да анализира наученото, сам да си задава въпроси и сам да си отговаря, и всичкото това пречупено през таблиците добро и лошо.
    7.Самообучението също добавя записи в таблиците добро или лошо, но те вече се намират в RAM и могат да бъдат изтрити, подменени, редактирани или дори загубени при рестарт.
    7. Създава се таблица МОРАЛ, която също физически се намира в ROM (неизтриваеми заповеди), EPROM (от обучението от хора) и RAM (от самообучението). В тази таблица се записват допустимите взаимодействия между различните заповеди в таблиците добро и лошо. Например мога ли да направя нещо лошо с малка амплитуда, ако това ще доведе до направата на добро с голяма амплитида. Тоест тука ще обясним понятията лъжа или например саможертва. Ето няколко примера:
    - Мога ли да излъжа един болен от рак, че не е болен
    - Мога ли да се защитавам, ако ме нападнат
    - Мога ли да убия някого, ако той се опитва да убие мене
    - Колко голямо е нивото на направеното добро, заради което си струва да направя саможертва
    - Мога ли да убия един, ако това ще доведе до спасяването на 10 други

    Всичко това не съм го измислил аз. То идва от наблюдението какво прави човек с неговата си собствена невронна мрежа. При раждането си тя не е самоубучена, така че няма задръжки от типа да убия някого, ако ми вземе биберона. Тоест в ROM вече са заложени всички заповеди, касаещи егоизма и оцеляването, и всяка една от тях е в раздел добро. След това започва възпитанието, в което на детето се разяснява кое е добро и кое-лошо. След това с порастването започва самообучението и самовъзпитанието, в резултат с контактите с околната среда - приятели, медии и т.н.
    Last edited by Mateev; 06.07.2025, 11:36.

    Напиши коментар:

Working...
X