Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.
- Реклама -
Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации.
Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.
Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва.
Новите ИИ системи допускат все повече фактически грешки, известни като халюцинации, въпреки технологичния напредък. Експерти и компании признават, че не разбират напълно причините за този проблем, който поставя под въпрос надеждността на изкуствения интелект в сфери като медицина, право и бизнес.
- Реклама -
Въпреки напредъка в изкуствения интелект, новите „разсъждаващи“ модели на компании като OpenAI и Google генерират все повече фактически грешки, наричани халюцинации.
Макар че ИИ инструментите се подобряват в области като математика и програмиране, способността им да различават истина от измислица остава ограничена. Новите системи, като o3 и o4-mini на OpenAI, показват халюцинации в до 79% от случаите при някои тестове – значително повече от по-старите модели. Според експерти и компании причините за тези грешки все още не са напълно ясни. Подходи като обучение чрез подсилване и многостъпково „разсъждение“ може допълнително да засилват проблема.
Нарастващите нива на халюцинации поставят под въпрос надеждността на ИИ, особено при използването му в критични сфери като право, медицина и бизнес. Изследвания, които проследяват поведението на моделите до конкретни данни, дават надежда, но устойчиво решение засега липсва.