Search Suggestions
      събота, 12.07.25
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Алгоритъмът на Instagram насърчава опасно за тийнейджърите съдържание

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          СВЪРЗАНИ НОВИНИ

          Мицотакис: Гърция не е отворен коридор към Европа

          Решенията на гръцките власти изпращат недвусмислен сигнал както към трафикантите, така и към потенциалните мигранти, че: „Гърция не е отворен път към Европа“, заявява...

          Мерц ще направи първото си официално посещение в Лондон на 17 юли

          Германският канцлер Фридрих Мерц ще отпътува за Лондон на 17 юли за първата си визита там, откакто пое поста през май. Мерц ще бъде „приет...

          Изненада: Вучич изказа съболезнования за Сребреница

          Сръбският президент Александър Вучич изказа съболезнования на босненските жертви в Сребреница по повод 30-годишнината от трагичното събитие. „Днес се навършват тридесет години от ужасното престъпление...

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions