Search Suggestions
      неделя, 25.01.26
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Халюцинациите на изкуствения интелект се увеличават, въпреки по-умните системи.

          9 май 2025 | 16:15 13481

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          google-news
          Последвайте Евроком в Google News

          СВЪРЗАНИ НОВИНИ

          Трудности за проектите за изкуствен интелект Stargate на Тръмп: Финансови предизвикателства и несигурност за бъдещето

          През 2026 г. проектът Stargate, създаден в сътрудничество между технологичните гиганти Oracle и OpenAI, който има за цел да осигури лидерство на САЩ в...

          Окончателно: Сделката за TikTok в САЩ е факт – какви са новите правила за потребителите

          Сделката за бъдещето на социалната мрежа TikTok в Съединените щати е официално финализирана, с което се слага край на продължилата повече от година несигурност...

          Караджов: Изграждаме национална мрежа от бързи зарядни станции за електрически автомобили

          Изграждането на национална мрежа от бързи зарядни станции, която да улесни пътуването с електрически автомобили извън големите градове, навлиза в практическа фаза. Вицепремиерът и министър...
          Вашият коментар
          - Реклама -
          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions