Search Suggestions
      вторник, 16.09.25
      Search Suggestions
          - Реклама -
          - Реклама -
          - Реклама -

          Алгоритъмът на Instagram насърчава опасно за тийнейджърите съдържание

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.

          - Реклама -

          Това показва ново проучване, според което модерирането на системата е „изключително неадекватно“, съобщи вестник „Гардиън“.

          Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.

          Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.

          Но Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, установи, че по време на едномесечния експеримент не е премахнато нито едно изображение.

          Instagram има достъп до технология, способна да се справи с проблема, но „е избрала да не я прилага ефективно“, се казва в проучването.

          Неадекватното модериране на платформата, предупреждава Digitalt Ansvar, предполага, че тя не спазва законодателството на ЕС.

          Говорител на Meta заяви: „Съдържание, което насърчава самонараняването, е в разрез с нашите политики и ние го премахваме, когато го открием. През първата половина на 2024 г. премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме проактивно.“

          „По-рано тази година стартирахме Instagram Teen Accounts, които ще поставят тийнейджърите в най-строгата настройка на нашия контрол на чувствителното съдържание, така че е още по-малко вероятно да им бъде препоръчано такова, а в много случаи ние напълно го скриваме“, каза още той.

          Датското проучване обаче установи, че вместо да се опита да закрие създадената мрежа, алгоритъмът на Instagram активно подпомага нейното разширяване. Изследването сочи, че 13-годишните стават приятели с всички членове на „група за самонараняване“, след като са се свързали с един от нейните членове.

          СВЪРЗАНИ НОВИНИ

          Френски ядрени изтребители „Рафал“ пристигнаха в Полша след атаката с руски дрон

          Франция изпраща три изтребителя „Рафал“ в Полша, като част от изпълнението на ангажиментите си към НАТО след атаката с руски дрон срещу страната, съобщава...

          Мерц: Германия обявява война на антисемитизма

          Германският канцлер Фридрих Мерц заяви, че е „шокиран“ от новата вълна на антисемитизъм в страната и обяви твърда борба с всички негови форми. „Бих искал...

          Баща на жертва от жп катастрофата в Гърция започна гладна стачка пред парламента

          Панос Руци, баща на 22-годишния Денис, който загина в железопътната катастрофа в Лариса, започна гладна стачка пред парламента в Атина. Младежът е бил с...

          ОСТАВИ КОМЕНТАР

          Моля, въведете коментар!
          Моля, въведете името си тук

          - Реклама -
          ТОП ДНЕС
          ТОП 14 ДНИ

          Зареждане…

          Зареждане…

          - Реклама -
          - Реклама -
          - Реклама -
          Search Suggestions
              Search Suggestions