Охота на негатив

Искусственному интеллекту доверят контроль соцсетей

О сетевой зависимости, которую сравнивают с наркотиком, психологами уже написаны тома. А автор термина «виртуальная реальность», один из её создателей, представитель киберэлиты Кремниевой долины Джарон Ланье даже написал книгу о том, почему нужно бежать из соцсети. Хотя она стала бестселлером, эти призывы вряд ли убедят широкие массы пользователей. Сегодня население соцсетей стремительно растёт. По прогнозам специалистов, к середине века они опутают практически все население планеты. Если, конечно, человечество не одумается.

А подумать есть над чем. В сетях сегодня действуют клубы по интересам не только филателистов и театралов, но самоубийц и наркоманов, здесь можно найти инструкции для начинающих террористов, соратников по борьбе с действующей властью и много ещё чего, прямо скажем, негативного. К примеру, можно вспомнить о волне самоубийств, когда возник бум на одну популярную сетевую игру, финальной целью которой является суицид. С пользователями социальных сетей (в подавляющем большинстве – подростки) связывается «куратор», который пользуется поддельными аккаунтами, их нельзя идентифицировать. Сперва они объясняют правила: «никому не говорить об этой игре», «всегда выполнять задания, какими бы они ни были», «за невыполнение задания тебя исключают из игры навсегда и тебя ждут плохие последствия».

А политики уже говорят о феномене сетей: они свергают правительства и даже выбирают президентов. Приёмы до удивления просты. В сети вбрасываются фейки о тех или иных возмутительных действиях власти и звучат призывы выйти на улицы, чтобы выразить возмущение. Примеров известно немало, скажем, в Египте, Южном Судане, Мьянме.

Как оградить общество от деструктивного влияния социальных сетей? Особенно это касается молодого поколения, которое в сетях составляет подавляющее большинство.

В принципе для специалистов, в частности психологов, это не проблема. Но объёмы самой разной информации, в том числе негативной, в сетях огромны, с её «ручной» обработкой не справятся даже лучшие профессионалы. Такое под силу только технике. И прежде всего искусственному интеллекту (ИИ), построенному на основе нейронных сетей, которые имитируют структуру и функционирование головного мозга. За решение такой задачи взялся коллектив психологов Первого Санкт-Петербургского государственного медицинского университета им. Павлова и специалистов в области информационных технологий Санкт-Петербургского института информатики и автоматизации РАН.

— Речь идёт о выявлении с помощью ИИ разных групп людей, склонных к деструктивному поведению, — сказал корреспонденту «РГ» профессор Игорь Котенко, который возглавляет эту группу учёных. — Психологи предложили нам семь вариантов такого поведения, в частности, это негативное отношение к жизни, что может привести к суициду, это склонность к агрессии или протестам, это угрозы по отношению к конкретному человеку или группе лиц и т.д. Наша задача создать ИИ, который сможет работать с этими признаками, говоря образно, «забить» их в ИИ, чтобы он смог постоянно анализировать огромную информацию, которая гуляет по сети, вылавливать разные тревожные варианты.

На первый взгляд задача не очень сложна. Ведь каждый житель соцсети, что называется, на виду. На его страничке видно, чем он интересуется, что думает, с кем общается, какие действия предпринимает сам и к чему призывает других. Все как на ладони. Смотрите и принимайте меры. Но если было все так очевидно... Дело в том, что мысли и поведение человека в большинстве случаев далеко не так просты и однозначны, как может показаться. И вообще дьявол в деталях. И там, где все очевидно специалисту, ИИ вполне может ошибиться. Так, канадские учёные учили ИИ отличать грубые шутки или «язык вражды» от просто обидных. Система оказалась довольно несовершенна, к примеру, пропускала многие очевидно расистские высказывания.

Словом, все зависит от того, как ИИ обучить. А учится система на примерах так же, как учится ребёнок. Ведь ему не объясняют, что у кошки вот такие усы, такие уши, такой хвост. Ему многократно показывают животное и говорят – это кошка. А потом он сам многократно повторяет этот урок, глядя на очередную кошку.

Искусственный разум сделает наводку на негативную ситуацию, а последнее слово за специалистами

Так же будут учиться и создаваемые питерскими учёными нейронные сети. Им будут предъявлять различные варианты деструктивного поведения людей. Держа в своих «мозгах» разработанные психологами признаки, ИИ будет их запоминать, чтобы затем вылавливать в огромных потоках информации соцсетей. Профессор Котенко особо подчёркивает, что задача ИИ сделать только наводку на деструктив, а последнее слово за специалистами. Только они смогут сказать, действительно ситуация тревожная и надо срочно принимать меры или тревога ложная.

Проект поддержан Российским фондом фундаментальных исследований.

Юрий Медведев

Фото: metamorworks / iStock

Источник: https://rg.ru/2019/03/05/iskusstvennomu-intellektu-doveriat-kontrol-socsetej.html

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Помог ли вам материал?
0    0