В последние годы социальные медиа-платформы разрабатывают и внедряют различные стратегии для модерации контента, публикуемого их пользователями, и обеспечения того, чтобы он не был оскорбительным или неуместным. Это вызвало серьезные дебаты, и некоторые пользователи утверждают, что эти методы препятствуют свободе слова в Интернете.
Исследователи из Inria, IRIT/ENSHEIT и LAAS/CNRS недавно провели исследование, изучающее известный метод модерации контента на платформах социальных сетей, известный как shadowbanning. Shadowbanning происходит, когда сайт социальных сетей вмешивается в онлайн-активность конкретного пользователя без его ведома, например, делая его сообщения или комментарии невидимыми для других пользователей. Это часто достигается с помощью алгоритмов принятия решений или других вычислительных методов, которые обучаются распознавать сообщения или комментарии, которые могут быть сочтены неуместными.
"Как исследователи, мы изучаем понимание взаимодействия пользователей с алгоритмами принятия решений",-сказал TechXplore Эрван Ле Меррер, один из исследователей, проводивших это исследование. "Эти алгоритмы часто предлагаются в форме черного ящика, что означает, что пользователи ничего не знают об их функционировании, но сталкиваются со своими решениями в результате данных, которые они предоставляют. В качестве примера таких алгоритмов принятия решений мы поставили под сомнение автоматизированные алгоритмы модерации в социальных сетях."
Исследователи задались целью изучить основы теневого баннинга на конкретной платформе социальных сетей: Twitter. Они решили сосредоточиться на Twitter, потому что его модерация пользовательского контента получила значительное внимание за последние несколько лет.
"Мы полагались на некоторый открытый код, который может обнаружить некоторые ограничения, наложенные на пользователей и видимость их профилей, твитов или взаимодействий",-объяснили исследователи. "Мы улучшили этот код для поддержки массовых тестовых кампаний и проверили видимость твитов около 2,5 миллионов пользователей Twitter."
После составления набора данных, содержащего информацию, связанную с видимостью твитов, размещенных пользователями в Twitter, исследователи использовали его, чтобы попытаться понять причины, по которым некоторые пользователи могли подвергнуться теневому баннингу. Для этого они проанализировали данные, собранные с помощью стандартных методов интеллектуального анализа данных, проверив две различные гипотезы о том, почему видимость некоторых пользователей в Twitter могла быть затруднена.
Первая гипотеза состояла в том, что ограничения на видимость сообщений некоторых пользователей были вызваны ошибками или сбоями в работе платформы. Во-вторых, теневое баннинг распространяется как эпидемия среди пользователей, которые взаимодействуют друг с другом.
"Поскольку в какой-то момент Twitter заявил, что они не используют методы теневого сканирования (ссылаясь на то, что проблемы являются ошибками), мы решили использовать статистические методы для проверки вероятности такого сценария ошибок, который должен быть равномерно распределен между пользователями и, следовательно, по нашим данным", - сказал Ле Меррер. "Мы обнаружили, что несколько выборочных групп населения были затронуты совершенно по-разному (например, политики и знаменитости меньше, чем боты или случайно отобранные пользователи)."
Результаты анализа показывают, что гипотеза о том, что shadowbanning возникает из-за ошибок или ошибок в системе Twitter, статистически маловероятна. Интересно, что они также заметили, что друзья или последователи пользователей, которые были подвергнуты теневому баннингу, с большей вероятностью будут подвергнуты теневому баннингу.
"Чтобы заменить маловероятное повествование об ошибках, предложенное Twitter, другим сценарием, мы разработали модель, которая захватила часто встречающиеся кластеры теневых пользователей", - сказали исследователи. - Другими словами, наша модель показывает, что у пользователей с тенью больше шансов иметь друзей с тенью. Эта распространенность теневого бэннинга вокруг некоторых пользователей и их контактов действительно ставит под сомнение заявление Twitter о его практике модерации."
Это недавнее исследование проливает некоторый свет на динамику и механизмы shadowbanning, показывая, что часто существуют группы пользователей shadowbanned, которые взаимодействуют друг с другом. Это может быть связано с тем, что алгоритмы принятия решений учатся классифицировать соединения пользователей shadowbanned как других потенциальных кандидатов для shadowbanning. Это также может быть вызвано алгоритмом, нацеленным на слова, часто используемые в определенных сообществах.
В будущем исследователи надеются провести дальнейшие исследования, изучающие основы и ограничения машинных систем модерации и рекомендации онлайн-контента.
"Мы планируем продолжить другие исследования алгоритмических черных ящиков", - сказали они. "Онлайн-сервисы теперь подвергают своих пользователей большому количеству таких систем (например, рекомендательные системы, кредитный скоринг, всевозможные рейкинги и т. Д.), поэтому выбор будет затруднен." | |
Просмотров: 335 | |