Search Suggestions
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Халюцинациите на изкуствения интелект се увеличават, въпреки по-умните системи.

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          СВЪРЗАНИ НОВИНИ

          ЕС обсъжда създаването на 100-хилядна армия, докато САЩ разработват нова ракета за HIMARS

          Европейският комисар по отбрана и космическо пространство Андриус Кубилиус постави на дневен ред критични въпроси относно бъдещето на сигурността на Европа. В центъра на...

          Space Epoch изгражда първата морска база за ракети за многократна употреба в Китай

          Китайската аерокосмическа компания Space Epoch официално даде старт на строителството на първата по рода си в страната морска база, специализирана в производството и тестването...

          Небесно зрелище: Три планети и Слънцето се подреждат в една линия

          Тази вечер небето ще предложи рядко астрономическо зрелище – планетите Марс и Венера ще се подредят с Меркурий и Слънцето в една линия. Това...

          1 коментар

          1. А почти 40годишните халюцинации на частната българска журналистика – кои не ги виждат.

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions