Search Suggestions
      петък, 09.05.25
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Халюцинациите на изкуствения интелект се увеличават, въпреки по-умните системи.

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.

          - Реклама -

          Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации. 

          Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.

          Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва. 

          СВЪРЗАНИ НОВИНИ

          ИЗНЕНАДА: Google преименува още един от най-важните обекти в света (КАРТА)

          Компанията Google промени името на Персийския залив на Арабски залив в своето приложение Google Карти, което предизвика сериозен международен отзвук. Това съобщи РИА Новости. Какво...

          Учени: Предците на тиранозавър рекс са дошли от Азия

          Тиранозавър рекс господства в Северна Америка точно преди масовото измиране преди 66 милиона години, което поставя края на „ерата на динозаврите“. Според нови изследвания...

          „Не прилича на нищо познато“: Откриха същество, каквото науката не е виждала досега

          Учените са изправени пред истинска загадка след изумително откритие в едно от най-недостъпните и неизследвани места на планетата – Марианската падина. По време на...

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions