Search Suggestions
      неделя, 10.11.24
      Search Suggestions

          „ХАЛЮЦИНИРАМ“: Речникът на Кеймбридж обяви думата на 2023 година

          Cambridge Dictionary разкри, че думата на годината за 2023 г. е „халюцинирам“, тъй като терминът получи нова допълнителна дефиниция, свързана с изкуствения интелект (AI), произвеждащ невярна информация.

          AI халюцинациите, известни също като конфабулации, понякога изглеждат безсмислени, но могат да изглеждат и напълно правдоподобни, дори когато са фактически неточни или в крайна сметка нелогични.

          Традиционното определение за „халюциниране“ е означава, че виждате, чувате, усещате или миришете нещо, което не съществува, обикновено поради здравословно състояние или защото е приет наркотик.

          Новото допълнително определение в речника на Кеймбридж е: „Когато изкуствен интелект (= компютърна система, която има някои от качествата, които притежава човешкият мозък, като например способността да произвежда език по начин, който изглежда човешки) халюцинира, той произвежда невярна информация.“

          Това следва едногодишно нарастване на интереса към инструменти за генеративен изкуствен интелект (AI) като ChatGPT, като общественото внимание се измества към ограниченията на AI и дали те могат да бъдат преодолени.

          AI инструментите, особено тези, които използват големи езикови модели (LLM), са доказали способността си да генерират правдоподобна проза, но често го правят, като използват фалшиви, подвеждащи или измислени „факти“.

          Те „халюцинират“ по уверен и понякога правдоподобен начин.

          AI халюцинациите вече са имали въздействие в реалния свят.

          Адвокатска кантора в САЩ използва ChatGPT за правно проучване, което доведе до цитиране на фиктивни случаи в съда.

          И в собственото промоционално видео на Google за неговия чатбот Bard, инструментът за изкуствен интелект направи фактическа грешка относно космическия телескоп James Webb.

          Новата дефиниция илюстрира нарастваща тенденция за антропоморфизиране на AI технологията, използвайки човешки метафори, докато говорим, пишем и мислим за машини.

          Д-р Хенри Шевлин, специалист по етиката на изкуствения интелект в университета в Кеймбридж, каза: „Широко разпространеното използване на термина „халюцинирам“ за обозначаване на грешки от системи като ChatGPT предоставя завладяваща моментна снимка на това как мислим и антропоморфизираме изкуствения интелект.

          „Неточната или подвеждаща информация отдавна е с нас, разбира се, независимо дали под формата на слухове, пропаганда или „фалшиви новини“.

          „Докато те обикновено се смятат за човешки продукти, „халюцинирам“ е емоционален глагол, който означава агент, който изпитва откъсване от реалността.

          „Този езиков избор отразява фина, но дълбока промяна във възприятието: AI, а не потребителят, е този, който „халюцинира“.

          СВЪРЗАНИ НОВИНИ

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          Сайтът е защитен от reCAPTCHA и Политиката за Поверителност и Общи Условия на Google са приложени.

          - Реклама -

          НАЙ-ЧЕТЕНИ СТАТИИ

          Зареждане...
          - Зов за Помощ - spot_img

          ПОСЛЕДНИ КОМЕНТАРИ

          Search Suggestions
              Search Suggestions