После недавних сбоев во «Вконтакте» и в связи с большой активностью «групп смерти» и сообществ с подобной тематикой нейросеть выступит в роли модератора. Она будет анализировать весь контент ресурса, и выявлять там опасные для пользователей материалы. Среди них будут фото и видео эротического и «суицидального» характера, на которых будут подозрительные призывы или обозначения. Потом алгоритм просто удалит такой контент.
В компании прокомментировали новую программу. По словам представителей «Вконтакте», нейросеть содержит несколько тысяч классов для фото, которые она оценивает, как «опасные» или «умеренно опасные». Первые она сразу не будет допускать к пользователям, а вторые – размещать в новостной ленте на последних позициях.
Также читайте: