Search Suggestions
      понеделник, 15.12.25
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Алгоритъмът на Instagram насърчава опасно за тийнейджърите съдържание

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          google-news
          Последвайте Евроком в Google News

          СВЪРЗАНИ НОВИНИ

          Европейските лидери и САЩ приветстват напредъка в усилията за мир в Украйна

          Лидерите на Германия, Дания, Финландия, Франция, Италия, Нидерландия, Норвегия, Полша, Швеция и Великобритания, заедно с председателите на Европейския съвет и Европейската комисия, приветстваха значителния...

          Американски служител: 90% от проблемите между Украйна и Русия са решени

          Около 90 на сто от проблемите между Украйна и Русия са били решени по време на последните разговори, заяви пред „Скай нюз“ високопоставен американски...

          Мицкоски постави условия за конституционни промени и преговорите с ЕС

          Правителството в Скопие няма да влезе в процеса на конституционни промени, без да бъдат изпълнени две ключови условия, заяви премиерът на Северна Македония Христиан...

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions