Проблема стала настолько серьезной, что за нее взялось государство в лице Роскомнадзора. Специалисты ведомства, а также представители Роспотребнадзора и квалифицированные врачи-психологи создадут пособие, предназначенное для модераторов социальной сети.
Предполагается, что новая методика позволит администрации сети проводить детальный мониторинг сетевой информации и эффективно выявлять «суицидальный контент» и соответствующие тематике сообщества, в том числе, и программным методом. При этом необходимо различать подлинно опасные материалы, угрожающие жизням людей, и проявления «черного юмора», которые повсеместно распространены в русскоязычном сегменте Интернета. Для этого планируется создать некий «суицидальный глоссарий», который поможет с большей достоверностью отделить одно от другого.
По мнению экспертов, система должна уметь автоматически обращать внимание на подозрительный контент и маркировать его. Затем помеченные материалы следует передавать экспертам для ручной проверки. В случае обнаружения нарушений, будет применяться стандартная процедура блокировки ресурса. Вместе с тем, эксперты предупреждают, что в своей работе системе придется столкнуться с рядом трудностей: «группы смерти» являются закрытыми сообществами, а их участники часто применяют в общении язык иносказаний и сленг – эти факторы необходимо учесть разработчикам методики.