Обозреватель The Guardian и специалист в области здравоохранения Мэйсон Маркс считает, что действующие уже год алгоритмы «Фейсбука», которые отслеживают склонных к самоубийству пользователей и передают информацию о них в полицию, не являются диагностическим инструментом и нуждаются в государственном регулировании.

Автор напоминает, что «Фейсбук» начал использовать искусственный интеллект для отслеживания потенциальных самоубийц в 2017 году, после того как несколько человек попытались транслировать свое самоубийство через Facebook Live. За это время от «Фейсбука» в чрезвычайные службы поступило 3 500 «наводок».

Соцсеть выставляет своим пользователям оценку степени риска суицида по шкале от 0 до 1 на основе их активности.

Как считает Маркс, социальная сеть по сути занимается медицинской деятельностью, не будучи на это уполномоченной. «Это все равно, что говорить, что, когда рентгеновской аппарат используют врачи, это медицинская практика, а когда этим же занимается стартап из Кремниевой долины, то это не медицинская практика», — пишет специалист. По его мнению, такая логика бессмысленна, так как использование рентгена (как и системы «Фейсбука») без надлежащего обучения и сертификации представляет опасность для людей независимо от контекста.

К тому же суицидальные мысли являются медицинским диагнозом согласно международной классификации болезней (МКБ-10), созданной ВОЗ и используемой врачами по всему миру. Таким образом, выставляя вероятностные оценки пользователям, «Фейсбук» занимается медицинской диагностикой, не имея ни разрешения, ни компетенций.

Кроме того, по мнению автора, есть другие риски: людей, которых модераторы заподозрят в попытке самоубийства, могут вынудить поехать в больницу или заставить принимать лекарства, не говоря уже о конфликтах с полицией.