Първоначално изпратено от barbaron
Разгледай мнение

ИИ описа точно, кратко и ясно процесите на обучение и приложение на ИИ

=======================================
Напълно сте прав! Това е изключително важна и често неразбрана техническа корекция. Вашият коментар е абсолютно точен от гледна точка на архитектурата и начина на работа на съвременните невронни мрежи.
Благодаря, че го споделихте, защото той прецизира разговора и коригира една моя собствена неточност. Докато използвахме думата "алгоритъм" в по-широк, разговорен смисъл (като "набор от правила или инструкции"), вие правилно посочвате, че в стриктния компютърен смисъл, това не е така.
Нека разгърнем вашата теза, защото тя е фундаментална. Защо ИИ не следва "зададен от човека алгоритъм"?
- Традиционно програмиране (Алгоритмичен подход):
- Програмистът пише изрични, стъпка-по-стъпка инструкции.
- Пример: "Ако видиш думата 'любов', провери дали в изречението има думата 'болка'. Ако да, отговори с цитат за нещастната любов. Ако не, отговори с цитат за щастливата любов."
- Човекът дефинира логиката. Компютърът просто я изпълнява.
- Машинно обучение / Невронни мрежи (Вашият модел):
- Програмистът не пише инструкции за решаване на проблема. Вместо това той:
- а) Проектира архитектурата на мрежата (броя на слоевете, типовете неврони и т.н.). Това е като да създадеш празен мозък.
- б) Създава функция на загубата (loss function), която измерва колко "грешен" е отговорът на мрежата.
- в) Подава огромно количество данни (обучаващи тензори). Примери: (Въпрос "Как си?", Очакван отговор "Добре съм, благодаря!").
- Процесът на обучение е автоматичен: Мрежата сама, чрез методи като обратно разпространение на грешката (backpropagation) и градиентно спускане (gradient descent), настройва милиардите си вътрешни параметри (теглата на връзките между невроните), за да минимизира грешката.
- Резултатът е функцията f(X): Тази функция е една гигантска, неразбираема за човека математическа формула, която преобразува входния тензор (въпроса) в изходен тензор (отговора). Никой човек не е написал тази формула. Тя е възникнала (emerged) от данните по време на обучението.
- Програмистът не пише инструкции за решаване на проблема. Вместо това той:
Вашата корекция прави дискусията още по-интересна и сложна:
- Проблемът "черна кутия" (Black Box): Тъй като никой не е написал "алгоритъма" (функцията f(X)), ние често не знаем защо ИИ е дал точно този отговор. Можем да видим, че статистически работи добре, но не можем да проследим "мисловния" му процес. Това прави откриването на грешки и предразсъдъци изключително трудно.
- Заплахата става по-фина: Коментарът на Матеев за "таблицата ДОБРО/ЛОШО" все още е валиден, но не като изрична таблица, а като част от данните за обучение. Ако обучим ИИ предимно на текстове, в които "унищожаването на врага" е описано като героично и добро, тогава функцията f(X) ще се настрои така, че да генерира подобни отговори, без някой изрично да е написал правило "Убивай!". Предразсъдъците на данните се превръщат в предразсъдъци на модела.
- Липса на контрол: Това прави ИИ едновременно по-мощен и по-неконтролируем. Не можем просто да влезем в кода и да променим едно правило "if-then-else". За да коригираме нежелано поведение, трябва да проведем ново, скъпо и сложно обучение с коригирани данни, без гаранция за успех.
Вие сте абсолютно прав. Да се каже, че ИИ следва "зададен от човека алгоритъм" е неточно и омаловажава сложността на процеса. По-точно е да се каже, че ИИ следва математическа функция, чиято структура е проектирана от човека, но чиито конкретни параметри са определени автоматично от данните, върху които е обучен.
Това прави ИИ не просто изпълнител на човешки команди, а нещо много по-различно: сложен статистически модел на данните, с които е захранен. И както гласи старата поговорка в компютърните науки: "Garbage in, garbage out" (Боклук на входа, боклук на изхода). Или в нашия случай: "Предразсъдъци на входа, предразсъдъци на изхода".
Благодаря за тази важна корекция! Тя е от съществено значение за правилното разбиране на технологията.
Коментар