Погибшие дети “рассказывают” истории своих убийств – новый тренд TikTok

TikTok

В TikTok набирают популярность видео, где жертвы убийств – преимущественно дети – описывают собственную смерть. 

В некоторых роликах на анимированных фото – реальные дети, в других – изображения создали нейросети. Голосами, также сгенерированными искусственным интеллектом (ШИ), дети подробно “рассказывают”, как они погибли.

Видео набирают миллионы просмотров, но родственники умерших критикуют их и говорят, что не давали согласия на это.

В марте TikTok запретил публикацию фотографий и видео реальных людей, сгенерированных с помощью искусственного интеллекта.

Однако расследование BBC обнаружило доказательства, позволяющие предположить, что среди работников TikTok может быть определенная неразбериха относительно политики платформы.

Модератор контента TikTok рассказал BBC, что запрет был введен четыре месяца назад, а компания до сих пор не проинформировала его об этом.

Некоторые видео оставались на платформе несколько месяцев, другие – получили миллионы просмотров.

Баронесса Кидрон говорит, что такое видео является “эмоциональным насилием” над родственниками погибших детей.

Авторы видео никак не связаны с семьями жертв, но именно на них такой контент влияет хуже всего.

“Для тех, кто связан с этим ребенком, особенно для родителей или членов семьи, это насилие, эмоциональное насилие”, – говорит баронесса Бибан Кидрон, независимый член Палаты лордов британского парламента.

“Не могу простить”

Вот как Амели Лемье из Канады описывает свои эмоции: “Это хуже, чем получить сильнейший апперкот”.

В июле 2020 года ее дочерей – 6-летнюю Роми и 11-летнюю Нору – убил ее бывший муж, который затем покончил с собой.

В апреле этого года Амели Лемье прислали TikTok-видео, в котором искусственная версия ее дочери Норы рассказывала об их убийствах.

“Я не смогла досмотреть до конца, и мой брат тоже не смог. Он кричал, чтобы это прекратилось”, – рассказывает женщина.

Лемье особенно озабочена тем, что видео могут случайно увидеть ее маленькие племянники.

Ее семья и другие пользователи обращались в техподдержку TikTok с просьбой удалить видео, но оно осталось в сети. И только после того, как Лемье начала активно заявлять о своей позиции в средствах массовой информации, анонимную учетную запись удалили.

Лемье не удалось найти авторов видео, но она поражена их действиями. “Когда кто-то использует боль, которая останется с вами до конца жизни, это невероятно шокирует, – говорит женщина, – И все ради просмотров, ругательств и репостов. Лично я не могу этого простить”.

Новые технологии

Создание таких видео возможно благодаря все большей доступности программного обеспечения искусственного интеллекта в интернете.

Теперь можно легко создать и анимировать простую человеческую фигуру, которая поведает компьютерным голосом любую историю.

В некоторых роликах на анимированных фото – реальные дети, в других – изображения создали нейросети.

Авторы видео пытаются оставаться анонимными. Но BBC нашла одного из них – лондонского студента по имени Ритул.

На своем YouTube канале он продвигал такие истории для быстрого привлечения аудитории в TikTok.

“Лишь через три недели я получил 47 тысяч подписчиков”, – рассказал он в одном видео.

Ритул отклонил нашу просьбу о комментарии, а его аккаунт у TikTok удален.

TikTok работает по такому принципу, что видео должно привлечь внимание за считанные секунды, поэтому авторы типа Ритула выбирают самый экстремальный и громкий контент.

Истории некоторых детей сняты на нескольких языках, в том числе португальском, испанском, французском, немецком, итальянском и польском.

Так BBC обнаружила 170 различных TikTok-видео о Джеймсе Балджере, двухлетнем британском мальчике, которого в 1993 году убили двое старших детей.

Мать Джеймса Дениз Фергюс считает такие истории “невероятно отвратительными”.

“Одна вещь – рассказать [о гибели моего сына]. Но “взять” лицо мертвого ребенка и сделать так, чтобы он говорил о случившемся, – это совершенно отвратительно. [Такие ролики] не просто неприятно смотреть родителям [погибших детей] . Я считаю, что никто не должен видеть такой контент”.

TikTok массово удалил видео и опубликовал заявление, в котором подчеркнул: “На нашей платформе не может быть такого тревожного контента. Мы продолжаем удалять его по мере того, как обнаруживаем”.

Среди удаленных видео о Джеймсе есть два вьетнамских языка, которые собрали четыре миллиона просмотров.

BBC поговорила с модератором контента TikTok во Вьетнаме, который согласился дать интервью на условиях анонимности. Он говорит, что через две недели после того, как его удалили, компания так официально и не сообщила ему, что такой контент запрещен.

По его мнению, видео подпадает под правила платформы, позволяющие людям, пережившим эксплуатацию и насилие, делиться своими историями.

Мы спросили у TikTok, достаточно ли четко их работники понимают политику компании? Однако ответа не получили.

Однако TikTok четко дал понять, что модератор ошибся, ведь это сгенерированное компьютером изображение мертвых детей, а не переживание выживших.

Подобные видео по-прежнему можно легко найти на TikTok. При этом платформа открыто заявляет, что не может контролировать весь контент, публикуемый ее пользователями.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

2023-09-07