IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore
Контролен панел | Съобщения | Потребители | Търси
  • If this is your first visit, be sure to check out the FAQ by clicking the link above. You may have to register before you can post: click the register link above to proceed. To start viewing messages, select the forum that you want to visit from the selection below.

Съобщение

Collapse
No announcement yet.

Диалози с ИИ

Collapse
X
  • Филтър
  • Време
  • Покажи
Clear All
new posts

  • Първоначално изпратено от Mateev Разгледай мнение

    Така е. Още преди 20 и повече години си спомням, че бях заредил на компютъра си някаква дървена програма за невронна мрежа и с нея се опитвах да направя прогнозиране на цената на различни финансови инструменти. Естествено че нищо не се получи. Мрежата просто отказа да се обучава, и чак след години разбрах, че няма как една невронна мрежа да се обучи на последователност от случайни числа.

    Но да - имаше невронни мрежи още тогава, имаше готово написани програми, и предполагам много хора по света са си играели с тях в опити да ги обучат на нещо.

    Иначе принципите на работа на невронните мрежи ги учехме в института преди 40 години, така че нищо ново под слънцето. Просто в наше време електрониката достигна до ниво, в което вече могат да се създадат с чипове достатъчен брой неврони, щото след обучение те вече да започнат да правят някакви значими неща. Тоест натрупванията са количествени, а не качествени.
    Количествените натрупвания, прерастват в качествени изменения.

    Коментар


    • Първоначално изпратено от Pyramid Разгледай мнение

      Лека корекция: ИИ е граден дълги години, във всичките си варианти. Просто, сега вижда бял свят, и проектите започват публично, да функционират.
      Така е. Още преди 20 и повече години си спомням, че бях заредил на компютъра си някаква дървена програма за невронна мрежа и с нея се опитвах да направя прогнозиране на цената на различни финансови инструменти. Естествено че нищо не се получи. Мрежата просто отказа да се обучава, и чак след години разбрах, че няма как една невронна мрежа да се обучи на последователност от случайни числа.

      Но да - имаше невронни мрежи още тогава, имаше готово написани програми, и предполагам много хора по света са си играели с тях в опити да ги обучат на нещо.

      Иначе принципите на работа на невронните мрежи ги учехме в института преди 40 години, така че нищо ново под слънцето. Просто в наше време електрониката достигна до ниво, в което вече могат да се създадат с чипове достатъчен брой неврони, щото след обучение те вече да започнат да правят някакви значими неща. Тоест натрупванията са количествени, а не качествени.
      Last edited by Mateev; 11.02.2025, 08:26.

      Коментар


      • Първоначално изпратено от Mateev Разгледай мнение
        В момента сме свидетели на революция в световен план. Става въпрос на ИИ. Буквално за 5-6 години получиха такова невероятно развитие, каквото никога не е имало в човешката история. Ако електрониката се разви бързо (70 години), интернет се разви много бързо (25-30 години), то ИИ се разви светкавично (по-малко от 10 години). Направо не ми се мисли какво ще бъде след още 10 години.

        Към днешна дата накъдето и да се обърне човек, вижда хиляди и хиляди ИИ. Буквално всеки втори сайт вече е оборудван със собствен ИИ, обучен в проблематиката на сайта. Това всъщност е облачен ИИ, който предлага услугата локален ИИ с персонални надстройки и обучение за решаване на даден локален проблем.

        Появиха се и нови ИТ фирми, които предлагат такава услуга. Казвам го за тези от вас, които мислят, че могат да спечелят от един такъв бързоразвиваш се бизнес. Новите фирми обикалят клиенти с големи сайтове (общини, фирми, медии, електронни магазини, правителствени сайтове) и им предлагат да интегрират ИИ в техния вече съществуващ сайт. Например предлагат за сумата от около 50 000 лв. да направят сайта на дадена община със 100-200 хиляди документа. Обучението на ИИ с толкова документи става автоматично за по-малко от 1 денонощие. ИИ отваря всеки един документ, прочита го, и го вкарва в базата си с данни. Това важи дори и за сканираните документи - ИИ прави OCR (преобразуване на изображение в текст) и също вкарва в паметта си съдържанието на документа. Вкарва в паметта си и снимки, хиперлинкове, стоки, закони или каквито там друго вече го има на сайта.

        След това първоначално обучение и след настройване на 100-200 параметъра, свързани с поведението на ИИ, дадената община например се сдобива с пълноценен ИИ чатбот на сайта си, който отговаря буквално на всякакви въпроси. Поиграх си с един такъв, обучаван за по-малко от денонощие, и започнах да го разпитвам за общината. Невероятно, но той ме шашна със знания, въпреки че такива на сайта ги няма. Явно тези знания ги вади от сканираните документи. Също така този ИИ притежава и базовите способности на баща си (облачния ИИ), щото приказва спокойно на всички езици, разпознава безпогрешно въпросите ми написани на латиница, на кирилица или на шльокавица с 1000 правописни грешки. Направо съм възхитен.

        Та ето ви поле за нов високоплатен бизнес, който все още не е разработен, но в който има огромен потенциал за лесна печалба за хора от ИТ сектора. Вървете в някой от провайдерите на облачен ИИ, поиграйте си безплатно с направата на някакъв собствен ИИ, обучен за нещо специфично, и с това ще натрупате опит и вече ще сте готови да отворите нов бизнес и да я предлагате тази услуга на други организации с големи сайтове.
        Лека корекция: ИИ е граден дълги години, във всичките си варианти. Просто, сега вижда бял свят, и проектите започват публично, да функционират.

        Коментар


        • Първоначално изпратено от barbaron Разгледай мнение
          Който е готов да обсъждаме тези теми, да ми се обади

          Обаждам се. Какво искаш да ти обясня?

          Коментар


          • 25 неожиданных способов использовать ChatGPT в повседневной жизни


            Още един клип, демонстриращ най-неочаквани и най-невероятни възможности на ChatGPT. Клипа е от жена, която е открила, че може в реално време да включим камерата на GSM-а си, да я даде на ChtGPT като око, през което да вижда, и след това в реално време да води разговор с него, касаещ това, което вижда. И е открила десетки полезни неща, които не са описани, и които човек сам може да ги открие само с проба-грешка.

            Например влиза в един магазин тип Мосю Бриколаж с хиляди атртикули, разположени по рафтове на огромна площ. Казва му на ИИ, че търси някаква дрелка за мъжа си с еди какви си параметри, включва камерата и моли ИИ да и помогне за по-бързо намиране. И той буквално започва да я командва накъде да отиде, накъде да обърне камерата, кои етикети да покаже в близък план и невероятно, но за по-малко от минута намира търсената дрелка. При това не се наложи тя да се разхожда из целия магазин, защото ИИ отдалеко четеше висящите от тавана указатели в коя част от магазина какъв тип стока има, и веднага я заведе до верния рафт, в който пак отдалееко разгледа висчки етикетки и почти веднага откри търсената дрелка.

            Или пък показва на камерата някакво зачервявване на кожата си и след това влиза в някакъв козметичен магазин пак с хиляди кремове с етикети на различни езици и с описания на действието им. Тръгва, показва снима етикети и т.н. и най-накрая ИИ подбрал един крем, тя го пробвала и е безкрайно доволна.

            Влиза в магазин за дрехи и започва да показва различни рокли, като му казала за какъв повод и трябва рокля, и ИИ избира най-подходящата, обяснявайки защо това е така.

            Тръгва из градината и показва на камерата различни растения. ИИ веднага казва кое какво е, вижда пожълтяване на едно листо и веднага казва каква е болеста, как да се излекува, самото растение как да е полива, и всичко останало.

            Гледайки клипа се сетих за нещо, което ИИ най-вероятно ще го извърши светкавично. Например показваш на камерата 1-2 квадратни метра детелина и го питаш имали поне една четирилистна детелинка. Би трябвало за секунда да я намери.

            Животни, бръмбари, буболечки - показваш, питаш, и той веднака кава какво е това заедно с една камара друга полезна информация.

            Или пък показваш на камерата някакви екземи или някакви изследвания на кръв и го питаш какво означава това. И веднага те засипва с информация и препоръки.

            Можеш да го накараш да ти създаде меню с определени параметри - за диабетик, за отслабване, с повишено съдържание на желязо, с по-много витамин D и т.н. и той прекрасно се спрая и с тази задача.

            Аз лично наскоро го накарах да преведе на английски една епикриза на жена ми, и той не само че я преведе, но я оформи в стил как изглеждат западните епикризи, с верните табулации, разгравявания, графичен дизайн и въобще всичко, което един обикновен човек преводач на английски не може да го направи.
            Last edited by Mateev; 09.02.2025, 16:12.

            Коментар


            • В момента сме свидетели на революция в световен план. Става въпрос на ИИ. Буквално за 5-6 години получиха такова невероятно развитие, каквото никога не е имало в човешката история. Ако електрониката се разви бързо (70 години), интернет се разви много бързо (25-30 години), то ИИ се разви светкавично (по-малко от 10 години). Направо не ми се мисли какво ще бъде след още 10 години.

              Към днешна дата накъдето и да се обърне човек, вижда хиляди и хиляди ИИ. Буквално всеки втори сайт вече е оборудван със собствен ИИ, обучен в проблематиката на сайта. Това всъщност е облачен ИИ, който предлага услугата локален ИИ с персонални надстройки и обучение за решаване на даден локален проблем.

              Появиха се и нови ИТ фирми, които предлагат такава услуга. Казвам го за тези от вас, които мислят, че могат да спечелят от един такъв бързоразвиваш се бизнес. Новите фирми обикалят клиенти с големи сайтове (общини, фирми, медии, електронни магазини, правителствени сайтове) и им предлагат да интегрират ИИ в техния вече съществуващ сайт. Например предлагат за сумата от около 50 000 лв. да направят сайта на дадена община със 100-200 хиляди документа. Обучението на ИИ с толкова документи става автоматично за по-малко от 1 денонощие. ИИ отваря всеки един документ, прочита го, и го вкарва в базата си с данни. Това важи дори и за сканираните документи - ИИ прави OCR (преобразуване на изображение в текст) и също вкарва в паметта си съдържанието на документа. Вкарва в паметта си и снимки, хиперлинкове, стоки, закони или каквито там друго вече го има на сайта.

              След това първоначално обучение и след настройване на 100-200 параметъра, свързани с поведението на ИИ, дадената община например се сдобива с пълноценен ИИ чатбот на сайта си, който отговаря буквално на всякакви въпроси. Поиграх си с един такъв, обучаван за по-малко от денонощие, и започнах да го разпитвам за общината. Невероятно, но той ме шашна със знания, въпреки че такива на сайта ги няма. Явно тези знания ги вади от сканираните документи. Също така този ИИ притежава и базовите способности на баща си (облачния ИИ), щото приказва спокойно на всички езици, разпознава безпогрешно въпросите ми написани на латиница, на кирилица или на шльокавица с 1000 правописни грешки. Направо съм възхитен.

              Та ето ви поле за нов високоплатен бизнес, който все още не е разработен, но в който има огромен потенциал за лесна печалба за хора от ИТ сектора. Вървете в някой от провайдерите на облачен ИИ, поиграйте си безплатно с направата на някакъв собствен ИИ, обучен за нещо специфично, и с това ще натрупате опит и вече ще сте готови да отворите нов бизнес и да я предлагате тази услуга на други организации с големи сайтове.

              Коментар


              • Който е готов да обсъждаме тези теми, да ми се обади


                Коментар


                • Архитектурата на DeepSeek-R1:

                  https://aman.ai/primers/ai/deepseek-R1/

                  Коментар


                  • Първоначално изпратено от barbaron Разгледай мнение
                    ИИ няма да цензурира безсмислените реплики на ЕГГ, просто ще ги изтрива
                    Радвам се че, ти си отново в бойно настроение.
                    ...Колкото и неадекватен да си, при всичко това.

                    Коментар


                    • Първоначално изпратено от Pyramid Разгледай мнение
                      А на мен ми се струва че, това е префинен инструмент за цензура.
                      ИИ няма да цензурира безсмислените реплики на ЕГГ, просто ще ги изтрива

                      Коментар


                      • Първоначално изпратено от barbaron Разгледай мнение
                        Инструмент (ИИ), разработен от изследователи от университета в Кийл, помага за откриването на фалшиви новини с впечатляваща точност от 99%, предлагайки жизненоважен ресурс в борбата с дезинформацията онлайн.

                        Изследователите д-р Учена Ани, д-р Сангета Сангета и д-р Патриша Асово-Айободе от Университета в Кийл (Keele's School of Computer Science and Mathematics) са използвали редица различни техники за машинно обучение, за да разработят своя модел, който може да сканира новинарско съдържание, за да даде оценка дали даден източник на новини е надежден и истински или не.

                        Методът, разработен от изследователите, използва техниката „ансамблово гласуване“, която комбинира прогнозите на множество различни модели за машинно обучение, за да даде обща оценка.

                        Впечатляващо е, че тази техника е била точна при идентифицирането на фалшиви новини в 99% от случаите, което значително надхвърля прогнозите и очакванията на изследователите.

                        Надеждата им е, че сега методът може да бъде допълнително усъвършенстван, тъй като системите за изкуствен интелект и машинно обучение стават все по-сложни, което ще им позволи в крайна сметка да създадат модел, който е 100% точен при идентифицирането на фалшиви новини.

                        Един от водещите автори д-р Учена Ани, преподавател по киберсигурност в Кийл, заяви: „В нашия постоянно развиващ се цифров комуникационен пейзаж широкото разпространение на фалшива информация е сериозен проблем. То компрометира целостта на обществения дискурс и има потенциала да застраши както местната, така и националната сигурност чрез повлияване на пристрастни нагласи, възгледи и действия.

                        „Рискът, който погрешните сведения, дезинформацията или фалшивите новини представляват за доверието в онлайн новинарските платформи, особено в социалните медии, подчертава спешната нужда от иновативни решения. Целта ни е да подобрим възможностите на нашето решение с изкуствен интелект чрез по-нататъшни изследвания, за да помогнем за решаването на този проблем още в зародиш.“

                        Изследователите наскоро представиха своите открития на 44-тата международна конференция по изкуствен интелект SGAI в Кеймбридж, Обединеното кралство. https://techxplore.com/news/2025-01-...-accuracy.html
                        А на мен ми се струва че, това е префинен инструмент за цензура.

                        Коментар


                        • Коментар


                          • Инструмент (ИИ), разработен от изследователи от университета в Кийл, помага за откриването на фалшиви новини с впечатляваща точност от 99%, предлагайки жизненоважен ресурс в борбата с дезинформацията онлайн.

                            Изследователите д-р Учена Ани, д-р Сангета Сангета и д-р Патриша Асово-Айободе от Университета в Кийл (Keele's School of Computer Science and Mathematics) са използвали редица различни техники за машинно обучение, за да разработят своя модел, който може да сканира новинарско съдържание, за да даде оценка дали даден източник на новини е надежден и истински или не.

                            Методът, разработен от изследователите, използва техниката „ансамблово гласуване“, която комбинира прогнозите на множество различни модели за машинно обучение, за да даде обща оценка.

                            Впечатляващо е, че тази техника е била точна при идентифицирането на фалшиви новини в 99% от случаите, което значително надхвърля прогнозите и очакванията на изследователите.

                            Надеждата им е, че сега методът може да бъде допълнително усъвършенстван, тъй като системите за изкуствен интелект и машинно обучение стават все по-сложни, което ще им позволи в крайна сметка да създадат модел, който е 100% точен при идентифицирането на фалшиви новини.

                            Един от водещите автори д-р Учена Ани, преподавател по киберсигурност в Кийл, заяви: „В нашия постоянно развиващ се цифров комуникационен пейзаж широкото разпространение на фалшива информация е сериозен проблем. То компрометира целостта на обществения дискурс и има потенциала да застраши както местната, така и националната сигурност чрез повлияване на пристрастни нагласи, възгледи и действия.

                            „Рискът, който погрешните сведения, дезинформацията или фалшивите новини представляват за доверието в онлайн новинарските платформи, особено в социалните медии, подчертава спешната нужда от иновативни решения. Целта ни е да подобрим възможностите на нашето решение с изкуствен интелект чрез по-нататъшни изследвания, за да помогнем за решаването на този проблем още в зародиш.“

                            Изследователите наскоро представиха своите открития на 44-тата международна конференция по изкуствен интелект SGAI в Кеймбридж, Обединеното кралство. https://techxplore.com/news/2025-01-...-accuracy.html

                            Коментар


                            • Deep learning plays a fundamental role in the development and functionality of Large Language Models (LLMs). Here's an overview of how deep learning is integral to LLMs:

                              Core Architecture
                              LLMs are built on deep learning architectures, specifically transformer models:

                              - Transformer Architecture: LLMs utilize transformer-based neural networks, which are a type of deep learning model[2]. These networks consist of multiple layers and nodes, allowing for complex pattern recognition in language.
                              - Self-Attention Mechanism: The transformer architecture employs self-attention capabilities, enabling LLMs to process entire sequences of text in parallel and understand contextual relationships between words[2].

                              Training Process
                              The training of LLMs heavily relies on deep learning techniques:

                              - Unsupervised Learning: LLMs use self-learning methods, a form of unsupervised deep learning, to process vast amounts of text data[2].
                              - Parameter Optimization: During training, deep learning algorithms iteratively adjust billions of parameters to maximize the model's ability to predict the next token in a sequence[2].
                              - Word Embeddings: Deep learning enables LLMs to represent words as multi-dimensional vectors, allowing the model to understand semantic relationships between words[2].

                              Advanced Capabilities
                              Deep learning techniques empower LLMs with sophisticated language understanding:

                              - Context Understanding: Through deep learning, LLMs can capture long-range dependencies in text, making them effective for tasks like text generation and summarization[3].
                              - Transfer Learning: Deep learning allows LLMs to transfer knowledge gained from one task to another, enhancing their versatility[1].
                              - Fine-tuning: Advanced deep learning methods enable efficient fine-tuning of LLMs for specific tasks without extensive retraining[1].

                              Computational Efficiency
                              Deep learning innovations contribute to the computational efficiency of LLMs:

                              - Parallel Processing: Unlike earlier recurrent neural networks, transformer-based LLMs can process inputs in parallel, significantly reducing training time[2].
                              - **GPU Utilization: Deep learning techniques allow for effective use of GPUs in training LLMs, further accelerating the process[2].

                              Continuous Improvement
                              The field of deep learning continues to enhance LLM capabilities:

                              - Parameter-Efficient Transfer Learning (PETL): This deep learning technique allows for fine-tuning only a subset of parameters, improving efficiency[1].
                              - Quantization: Advanced deep learning methods enable representation of model weights with lower precision, reducing memory usage without sacrificing accuracy[1].

                              In summary, deep learning techniques are at the core of LLM development, enabling these models to perform complex language tasks with high efficiency and accuracy. As the field progresses, continued advancements in deep learning will likely lead to even more powerful and efficient LLMs.

                              Коментар


                              • Първоначално изпратено от Mateev Разгледай мнение
                                Това и аз се шокирах като го чух - да, ИИ може да прогнозира само една дума, най-вероятната дума, която би казал човек при подобни предишни думи. Ако има няколко подходящи думи с висока вероятност, ИИ с помощтта на генератор на случайни числа избира една от тях. Така се гарантира, че ако втори път го попиташ за същото, ще отговори по друг начин с други думи. Та след като ИИ избере коя е следващата дума, поставя я най-отзад на редицата с думи и отново влиза в цикъл за прогнозиране на следващата дума.
                                Large language models (LLMs) like GPT operate by predicting the most probable next word in a sequence, but their behavior is more complex than the oversimplified Mateev's description suggests. Here's a breakdown of the key points:

                                Core Mechanism of Next-Word Prediction
                                - Probabilistic Selection: LLMs generate text by analyzing input context and assigning probabilities to potential next words. While they often choose high-probability candidates, they incorporate randomness (via "temperature" settings) to avoid repetitive outputs. For example, the same prompt might yield different responses like "right," "around," or "back" in the sentence *"She turned ___"*.
                                - Sequential Generation: Each predicted word is appended to the input sequence, and the process repeats to build coherent text incrementally[1][9]. This loop enables models to generate paragraphs or stories by maintaining contextual consistency.

                                Role of Model Parameters
                                - Learning vs. Memorization: Parameters are not static word banks but dynamic values adjusted during training to recognize linguistic patterns (e.g., grammar, style, subject-verb agreement). For instance, a node might evolve into a "singular noun detector" to improve predictions.
                                - **Scaling Impact**: Increasing parameters enhances a model’s ability to capture complex relationships in data. While early models struggled with basic syntax, modern LLMs with billions of parameters can generate narratives and code by internalizing hierarchical structures (words → phrases → discourse).

                                Key Innovations Beyond Scale
                                - **Architectural Advances**: Transformer architectures and attention mechanisms revolutionized LLMs by enabling efficient long-range context processing. These innovations, combined with objectives like next-sentence prediction[3], improved discourse-level coherence.
                                - **Training Techniques**: Methods like backpropagation and self-supervised learning allow models to refine predictions iteratively using vast datasets. For example, GPT’s training involves adjusting parameters to minimize prediction errors across billions of text examples.

                                Limitations of the Original Statement
                                - Oversimplification: While parameter scaling is critical, it underestimates the role of architectural and algorithmic breakthroughs. Models today leverage techniques like fine-tuning and reinforcement learning to align outputs with human intent.
                                - Learning Dynamics: Even early neural models "learned" patterns rather than merely memorizing words, albeit at a smaller scale.

                                In summary, modern LLMs combine probabilistic next-word prediction, parameter-driven pattern recognition, and architectural innovations to achieve their capabilities. While scaling is foundational, it is not the sole driver of progress.
                                ...

                                Коментар

                                Working...
                                X