У книзі «Сфера» Дейва Еггерса велика корпорація під назвою «Сфера» однією з своїх глобальних задач бачить трансляцію «всього і для всіх», агітуючи за надвідкритий світ без обмежень та цензури. Вочевидь, книжка є такою собі антиутопією, проте з елементами сьогоднішньої реальності. Ці елементи – це, наприклад, Facebook-трансляції всього, що відбувається перед очима користувача. Навіть якщо це вбивство.
16 квітня житель Огайо Стів Стівенс (Steve Stephens) розмістив у Facebook відео вбивства 74-річного чоловіка. Згодом у організованій ним прямій трансляції він заявив про вбивство ще декількох людей і пообіцяв вчинити ще кілька злочинів. Через деякий час стало відомо, що під час погоні полісменів за Стівенсом, той застрелився. Проте ще один кейс про «вбивство в прямому ефірі» підняв питання про те, як медіа компаніям боротися з тим, що їх платформи використовують для злочинів. Потоки контенту, який публікується сьогодні онлайн, робить неефективною роботу модераторів, серед задач яких – в тому числі відслідковувати контент з елементами жорстокості.
Відео, опубліковане Стівенсом, було доступно онлайн біля двох годин до того, як модератори соцмережі заблокували його та акаунт його автора. На реакцію на першу скаргу Facebook було потрібно 23 хвилини. Важко уявити, яка кількість людей змогла подивитись це відео. По даним The Washington Post, відео було переглянуте біля 150 разів. До користувачів інтернету із закликом припинити дивитись на цей жах звернувся онук загиблого чоловіка. Він попросив припинити переглядати ролик та пожалітись на тих, хто його ретвітнув чи репостнув.
У Facebook взялися розслідувати цей кейс та опублікували хронологію цієї жахливої історії.
Перше відео з обіцянками здійснити вбивство було опубліковане близько 11 ранку. За дві хвилини з’явилось відео з вбивством. Через 13 хв – онлайн-трансляція з визнанням вини. Перша скарга з’явилась відразу після завершення трансляції, наступна – через дві години. Акаунт вбивці було заблоковано через дві години і 13 хвилин після розміщення першого ролику, тоді ж були видалені всі відео.
У Facebook визнали проблему в занадто пізній реакції на це відео, не дивлячись на те, що кількість модераторів контенту у компанії складає тисячі людей.
Facebook не перша медіа-компанія, яка бореться з такими речами. У 1974 році телеведуча Крістін Чаббак (Christine Chubbuck) здійснила самогубство у прямому телевізійному ефірі. Проте це побачило дуже мало людей, а технічних можливостей подивитись повторну трансляцію навіть у бажаючих не було.
Facebook сьогодні є децентралізованою системою з мільйонами фрілансерів-репортерів, які мають необмежений доступ до своєї аудиторії. Facebook наразі відкидає саму ідею цензурування відео, аргументуючи це тим, що соцмережа не хоче бути звинуваченою у порушенні права на свободу слова. Але не лише це є проблемою для Facebook. Навчити алгоритми в режимі реального часу ідентифікувати відео з елементами насильства доволі важко. На сьогодні співробітники Facebook не бачать відео до публікації. І, вочевидь, не знають, що відбуватиметься на наступних хвилинах прямих трансляцій.
Тому сьогодні Facebook покладається на інших користувачів, які повинні пожалітися на недопустимі відео або трансляції. Але це автоматом означає, що такі відео чи трансляції можуть бачити десятки тисяч людей. Таким чином, відповідальність за поширення неприпустимого контенту лягає на інших користувачів Facebook, які вчасно не пожалілися на такі відео. Традиційні медіакомпанії мають чітко сформульовані принципи і політику, які допомагають у модерації контенту. Facebook наразі вважає, що спільнота користувачів повинна допомагати у модерації. Проте сподіватися на натовп в таких речах, все ж, не є найкращим рішенням. Тому може якраз зараз прийшов час, коли Facebook потрібно самій задуматися над тим, як боротися з неприпустимим контентом, який поширюється мережею.
Історія Стіва Стівенса демонструє там, що іноді прямі трансляції показують нам те, що ми вважали за краще б не бачити. Навряд чи більшість з нас буде готова жити у світі повної відкритості, у світі «Сфери», коли всі бачать все. А більшість впливає на прийняття державних рішень.