Search Suggestions
      петък, 18.07.25
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Халюцинациите на изкуствения интелект се увеличават, въпреки по-умните системи.

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          СВЪРЗАНИ НОВИНИ

          Нови мерки: Meta започва да премахва акаунти

          Meta въвежда нови правила за борба с разпространението на нисъкокачествено и копирано съдържание в своите платформи. Компанията ще ограничава видимостта на профили и страници,...

          Илон Мъск прогнозира кога ИИ ще стане по-умен от всички хора

          Според него това ще се случи в рамките на по-малко от две години, а до края на десетилетието ИИ ще превъзхожда човечеството като цяло.

          Учени регистрираха най-голямото сливане на черни дупки досега

          Събитието се е случило на разстояние около 10 милиарда светлинни години от Земята, съобщава британският „Гардиън“.

          1 коментар

          1. А почти 40годишните халюцинации на частната българска журналистика – кои не ги виждат.

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions