Search Suggestions
      - Реклама -
      - Реклама -
      - Реклама -
      ГОРЕЩО
      13:56 Над 12 500 тона имитиращи продукти са реализирани на пазара за година13:05 ОФИЦИАЛНО: Дечев обяви новия заместник-главен секретар на МВР12:56 От последните минути: Правната комисия отхвърли ветото на президента върху Изборния кодекс11:56 Президентът Йотова за Украйна: Това е война и агресия, вярвам в примирието11:47 Висши генерали от НАТО пристигнаха в София за годишния анализ на отбраната11:26 Експерти: София е само транзитна спирка за самолетите на САЩ, а не база за удар по Иран11:08 Служебният кабинет закри поста „вицепремиер по честността на вота“10:53 Крум Зарков: БСП няма да осигури гласове за преодоляване на ветото върху Изборния кодекс10:39 Адмирал Ефтимов представя анализа за състоянието на армията пред президента и министъра на отбраната10:25 „Възраждане“ пита премиера Гюров как ще спре водната криза и поскъпването

      Халюцинациите на изкуствения интелект се увеличават, въпреки по-умните системи.

      9 май 2025 | 16:15 13511

      Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

      - Реклама -
        
        

      Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

      Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

      Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

      СВЪРЗАНИ НОВИНИ

      Каква е разликата между AI чатбот и AI агент?

      Това е практическа стъпка от „AI, който говори“ към „AI, който работи"
      Вашият коментар
      - Реклама -
      - Реклама -
      - Реклама -
      - Реклама -
      Search Suggestions
          Search Suggestions