Cовместимость по знаку зодиака
Cовместимость c селебрити

Узнайте совместимость по знаку зодиака

Вандализм в Википедии может помешать разоблачению мистификаций в Google, YouTube и Facebook

Проверка Фактов

На короткое время Республиканская партия Калифорнии поддержала нацизм. По крайней мере, так сказал Google.

Это произошло потому, что 31 мая кто-то разрушил страницу партии в Википедии, указав «нацизм» рядом с такими идеологиями, как «консерватизм», «рыночный либерализм» и «фискальный консерватизм». Ошибка была удалена из результатов поиска с помощью Google уточнение для Vice News что поисковая система не смогла обнаружить вандализм в статье Википедии.

У Google есть давно нарисовано онлайн-энциклопедия для добавления основной информации к результатам поиска. Согласно с журнал редактирования для страницы Калифорнийской Республиканской партии, кто-то добавил 'нацизм' в раздел партийной идеологии около 7:40 UTC 31 мая. Редактирование было удалено в течение минуты, но, похоже, алгоритм Google очистил страницу как раз вовремя для подделки.

«Иногда люди совершают акты вандализма в общедоступных источниках информации, таких как Википедия, что может повлиять на информацию, отображаемую в поиске», — сообщил представитель Google Пойнтеру в электронном письме. «У нас есть системы, которые обнаруживают вандализм до того, как он повлияет на результаты поиска, но иногда возникают ошибки, и это то, что здесь произошло».

Фонд Викимедиа, некоммерческая организация, управляющая Википедией, также опубликовал заявление в Twitter.

По данным Google, более 99,9% правок Википедии, отображаемых в панелях знаний, которые отображают основную информацию о ключевых словах, доступных для поиска, в верхней части результатов, не являются вандализмом. Пользователь, внесший исходное редактирование на страницу Республиканской партии Калифорнии. не использовал профиль пользователя , что затрудняет их отслеживание.

Это общая тактика среди людей, которые оскверняют страницы Википедии. подробно задокументировано . Но учитывая объем правок, которые вносятся в Википедию — около 10 в секунду , с 600 новыми страницами в день и тем фактом, что Facebook и YouTube теперь извлекают из них информацию, чтобы предоставить больше контекста для сообщений, вероятность и последствия злоупотреблений высоки.

«Конечно, это довольно слабый способ борьбы с фейковыми новостями, потому что Википедия не является надежным источником информации — как признает даже Википедия», — сказал он. Магнус Фарао Хансен , научный сотрудник Копенгагенского университета, в послании Пойнтеру. «Википедия очень уязвима для мистификаций и содержит всевозможную дезинформацию, поэтому это не очень серьезный способ борьбы с проблемой сфабрикованных новостей».

Хансен редактировал страницы Википедии около 10 лет и сказал, что вандализм на платформе — обычное дело. Количество редакторов уменьшился в последние годы, в то время как онлайн-партизаны все больше нацелены на платформу - проблема, которая пришло в голову во время спора вокруг Gamergate в 2014 году. По сути, это игра с числами.

Это далеко от где была Википедия в 2005 году , когда исследование показало, что это было примерно так же точно, как Британика. Кроме того, редакторам-добровольцам становится сложнее бороться с масштабным вандализмом в Википедии, что не сулит ничего хорошего для использования ее для борьбы с дезинформацией на других платформах.

«Конечно, в Википедии много неверной информации, и многие из них останутся», — сказал Хансен. «Часто кто-то пишет статью, и могут пройти годы, прежде чем кто-то придет и отредактирует ее. Люди не проверяют факты, если что-то не выглядит действительно неуместным».

Один сфабрикованная статья в Википедии прожил на сайте десять лет, прежде чем был удален в 2015 году.

В то же время платформа оказалась устойчивой к мистификациям, которые регулярно становятся вирусными. Фейсбук а также Твиттер . оценки Викимедиа что около 2,5% ежедневных правок являются актами вандализма, и Саманта Лиен, менеджер по коммуникациям Викимедиа, указала на алгоритм, который автоматически помечает сомнительные правки как ключевой успех его усилий по обеспечению целостности.

«Статьи, как правило, обеспечивают сбалансированное представление фактов, и на данный момент сайт доказал свою устойчивость к фейковым новостям и дезинформации», — сказала она Пойнтеру в электронном письме. «Последние пару лет мы также работали с редакторами-добровольцами над созданием и улучшением инструментов модерации для быстрого выявления и пресечения вандализма в Википедии».

Помимо собственных ограничений Википедии, собственные системы технических платформ часто становятся предметом ошибок и споров, особенно в группах знаний.

Также 31 мая начался поиск сенатора-республиканца, поддерживающего Дональда Трампа, в Северной Каролине. появилось изображение о ней с надписью «фанатик» внизу. В январе The Daily Caller обнаружил, что Google ошибочно добавляет проверки фактов к своему контенту, а не к контенту других изданий. Это привело к тому, что техническая компания приостановила работу функции, пока не исправит ошибки.

Google сообщил Пойнтеру, что не изменяет результаты поиска вручную, чтобы отдать предпочтение одной стороне перед другой. Но его алгоритмы регулярно обыгрываются розыгрыши , поддельные объявления и тролли, стремящиеся изменить результаты поиска. И эти проблемы могут распространяться на другие платформы, ссылающиеся на Википедию.

«Когда все больше медиа-платформ некритически используют контент из Википедии, это поднимает ставки — как для тех, кто вводит в заблуждение или обманывает, так и для тех, кто распространяет знания», — сказал Хансен. «Я думаю, особенно со ссылками на Википедию из видеороликов YouTube о теориях заговора, это может привести к привлечению не той толпы».

В марте, YouTube объявил что он будет напрямую ссылаться на страницы Википедии в описаниях видео, чтобы предоставить больше контекста и развенчать теории вирусного заговора, которые часто становятся вирусными после экстренных новостных событий. Те «информационные подсказки», которые были введены на платформе без ведома Википедии — будет содержать короткую строку об источнике и ссылку на его страницу в Википедии.

Эта функция еще не запущена, но в феврале YouTube представил аналогичную, которая предоставляет больше контекста новостным организациям, получающим деньги от правительства США.

YouTube

(Скриншот с YouTube)

Учитывая возросшую видимость страниц Википедии, вполне возможно, что вандалы могут стекаться на платформу, чтобы троллить несколько платформ одним редактированием.

«Взлом Википедии всегда был проблемой, но эта проблема действительно затрагивала только читателей Википедии. Теперь это еще более опасно, поскольку платформы все чаще автоматически извлекают данные из Википедии», — сказала Клэр Уордл, исполнительный директор First Draft, в электронном письме Пойнтеру. «Для агентов дезинформации, которые хотят максимального распространения, любой метод, который гарантирует, что платформы или отделы новостей будут повторять и, следовательно, узаконивать ложь, обеспечивает непропорциональную «окупаемость инвестиций»».

По словам Лиена, несмотря на то, что Википедия служит источником для большего количества платформ, в ней не наблюдается всплеска вандализма. Но видя, как дополнения застали организацию врасплох, неясно, как именно они повлияют на целостность страниц Википедии.

«Тенденция технологических компаний использовать Википедию для решения проблем дезинформации на своих собственных платформах — это новая для нас территория, и мы не знаем, каковы будут полные последствия», — сказала она. «В краткосрочной перспективе мы внимательно следим за тем, как это повлияет на Википедию и наше глобальное сообщество добровольцев. На сегодняшний день мы не видели ничего, что указывало бы на более масштабную проблему вандализма».

Но даже если в Википедии усилится вандализм с намерением изменить результаты на платформах, Льен сказал, что у организации не будет возможности узнать об этом.

«У нас нет доступных данных, которые указывали бы на тенденции вандализма с явным намерением манипулировать другими платформами», — сказала она.

Так насколько вероятно, что больше дезинформации попадет на другие платформы? Джозеф Ригл, адъюнкт-профессор коммуникаций в Северо-восточном университете и эксперт по Википедии, сказал Пойнтеру, что, хотя нет никакого способа узнать без правильных систем мониторинга, созданная структура может сделать дезинформацию более заметной — даже если она не создана для игры. платформы, такие как Google и Facebook.

«Да, это вероятно, и я думаю, что это станет еще более вероятным, поскольку эти коммерческие компании продолжают прыгать на подножку», — сказал он. «В случае с Google я не думаю, что цель редактирования заключалась в том, чтобы загрязнить последующих пользователей Википедии, но эффект все же был. Тот факт, что Википедия используется этими нижестоящими агрегаторами, также делает Википедию более уязвимой целью, что вызывает озабоченность».

Тем не менее, несмотря на то, что Википедия сокращается, она по-прежнему имеет преданное сообщество редакторов, которые Годы опыта обработка статей о последних новостях. Натан Матиас, научный сотрудник Принстонского университета с докторской степенью, сказал Пойнтеру в электронном письме, что дезинформация вряд ли будет часто просачиваться сквозь трещины из-за этого сообщества.

Но на окраинах сайта этот шанс существенно возрастает.

«В случаях экстренных новостей, когда активисты всех мастей разработали способы влиять на алгоритмы платформы быстрее, чем скорость журналистики, я ожидаю, что Википедия будет более устойчива к влиянию», — сказал он. «Риски для Википедии и платформ будут больше на периферии знаний и внимания, поскольку труднее обнаружить небольшой поток людей, получающих доступ к низкопрофильным экстремистским материалам».

Несмотря на проблемы, некоторые эксперты рассматривают технические платформы, ссылающиеся на страницы Википедии, как шаг вперед в противодействии дезинформации в Интернете.

Эни Мустафарадж, доцент кафедры компьютерных наук в колледже Уэллсли, сообщила Пойнтеру в электронном письме, что добавление Википедии к крупным технологическим платформам — это позитивный шаг. Но это идет с оговорками.

«Они должны делать это последовательно, а не только для борьбы с дезинформацией, мистификацией или теориями заговора», — сказала она. «В целях борьбы с дезинформацией мы не должны возлагать ответственность на Facebook и Google, потому что именно они в первую очередь усугубили проблему».

В то же время удаление информации из Википедии с платформы может запутать читателей. Хансен сказал, что ссылки на сайт с платформ социальных сетей, даже если они хорошо помечены, не вызовут такого же скептицизма, который присущ пользователям Википедии.

«Читатель не знает, что это из Википедии. Такого рода вводит слой, где вы не можете быть уверены в источнике информации», — сказал он. «Люди настроены скептически, когда они в Википедии — вы можете видеть, когда нет источника… когда вы находитесь на другой платформе, вы не обращаете внимания на такие вещи».

Тогда возникает вопрос пропускной способности. Поскольку число редакторов продолжает сокращаться, Википедия, возможно, захочет рассмотреть вопрос о найме штатных сотрудников, которые будут следить за актами вандализма и не допускать их распространения на другие платформы. Хансен сказал, что, по его мнению, некоммерческая организация должна создать собственное подразделение по проверке фактов или обратиться к экспертам-редакторам и ученым с просьбой оценить некоторые из наиболее нюансированных страниц.

«Я думаю, что это единственный способ борьбы с дезинформацией в Википедии», — сказал он.

По крайней мере, Лиен предположил, что технические платформы, которые используют Википедию для противодействия дезинформации, каким-то образом возвращают некоммерческим организациям — точку зрения, которую исполнительный директор Викимедиа Кэтрин Махер утверждала в недавняя статья для Wired . (Фейсбук и Ютуб не включены среди главных благотворителей Викимедиа.)

«Мы призываем компании, которые используют контент Википедии, отдавать в том же духе устойчивого развития», — сказала она. «Поступая таким образом, они присоединятся к миллионам людей, которые вносят свою лепту, чтобы Википедия оставалась сильной и процветающей».

И Матиас согласился.

«Если компании рассчитывают полагаться на огромное количество неоплачиваемого и часто психологически обременительного труда со стороны википедистов и Фонда Викимедиа для решения некоторых из своих самых сложных проблем, им нужно найти способы поддержать эту работу, защищая при этом интеллектуальную независимость Википедии», — сказал он.