Согласно отчету Facebook, за первый квартал 2018 года алгоритмы искусственного интеллекта такие, как Qaeda и ISIS, помогли выявить намного больше нежелательных и опасных сообщений, чем в конце 2017 года.

К категории нежелательных сообщений относятся посты самых разных категорий.

К примеру, 1,9 миллионов удаленных в первом квартале 2018 года постов носили террористический характер. Представители социальной сети утверждают, что их инструменты помогли обнаружить и удалить 99,5% их них до того, как кто-либо из пользователей успел пожаловаться. Раньше Facebook удавалось вовремя обнаружить только 97% из 1,1 миллиона подобных сообщений.

Посты, содержащие сцены насилия, удаляются до поступления жалоб в 0,22 —0,27%  случаев. За первые три месяца этого года под санкции попали 3,4 миллиона сообщений. В конце 2017 года было удалено 1,2 миллиона подобных постов, из которых заблаговременно получилось найти 0,16 — 0,19%.

Однако при обнаружении порнографического и сексуального контента искусственный интеллект показывает себя не лучшим образов. Facebook пришлось удалить по 21 миллиону сообщений такого характера, из которых до жалоб пользователей было отфильтровано всего 0,06 — 0,08%.

Зато посты, разжигающие ненависть или содержащие бранную лексику, автоматически стираются в 56% случаев. За первый квартал 2018 года было удалено 2,5 миллиона таких сообщений.

Согласно отчету, почти 100% постов, относящихся к категории «спам» удается стереть до обращения пользователей. В первом квартале 2018 года под санкции попали 837 миллионов сообщений.

Также в течение трех месяцев 2018 года было удалено 583 миллиона фейковых аккаунтов, против 694 миллионов в конце 2017 года. Искусственный интеллект помог обнаружить 3 — 4% из них.

Facebook отметила, что продолжит усиливать меры борьбы со всеми перечисленными категориями сообщений. Для этого социальной сети придется увеличить численность команды, следящей за безопасностью, до 20 000 человек.

/

Согласно отчету Facebook, за первый квартал 2018 года алгоритмы искусственного интеллекта такие, как Qaeda и ISIS, помогли выявить намного больше нежелательных и опасных сообщений, чем в конце 2017 года.

К категории нежелательных сообщений относятся посты самых разных категорий.

К примеру, 1,9 миллионов удаленных в первом квартале 2018 года постов носили террористический характер. Представители социальной сети утверждают, что их инструменты помогли обнаружить и удалить 99,5% их них до того, как кто-либо из пользователей успел пожаловаться. Раньше Facebook удавалось вовремя обнаружить только 97% из 1,1 миллиона подобных сообщений.

Посты, содержащие сцены насилия, удаляются до поступления жалоб в 0,22 —0,27%  случаев. За первые три месяца этого года под санкции попали 3,4 миллиона сообщений. В конце 2017 года было удалено 1,2 миллиона подобных постов, из которых заблаговременно получилось найти 0,16 — 0,19%.

Однако при обнаружении порнографического и сексуального контента искусственный интеллект показывает себя не лучшим образов. Facebook пришлось удалить по 21 миллиону сообщений такого характера, из которых до жалоб пользователей было отфильтровано всего 0,06 — 0,08%.

Зато посты, разжигающие ненависть или содержащие бранную лексику, автоматически стираются в 56% случаев. За первый квартал 2018 года было удалено 2,5 миллиона таких сообщений.

Согласно отчету, почти 100% постов, относящихся к категории «спам» удается стереть до обращения пользователей. В первом квартале 2018 года под санкции попали 837 миллионов сообщений.

Также в течение трех месяцев 2018 года было удалено 583 миллиона фейковых аккаунтов, против 694 миллионов в конце 2017 года. Искусственный интеллект помог обнаружить 3 — 4% из них.

Facebook отметила, что продолжит усиливать меры борьбы со всеми перечисленными категориями сообщений. Для этого социальной сети придется увеличить численность команды, следящей за безопасностью, до 20 000 человек.

_.jpg">

Искусственный интеллект помог Facebook удалить почти 2 миллиона террористических сообщений / Лента новостей / Главная

Борменталь Зорин 16.05.2018, 15:47

Согласно отчету Facebook, за первый квартал 2018 года алгоритмы искусственного интеллекта такие, как Qaeda и ISIS, помогли выявить намного больше нежелательных и опасных сообщений, чем в конце 2017 года.

К категории нежелательных сообщений относятся посты самых разных категорий.

К примеру, 1,9 миллионов удаленных в первом квартале 2018 года постов носили террористический характер. Представители социальной сети утверждают, что их инструменты помогли обнаружить и удалить 99,5% их них до того, как кто-либо из пользователей успел пожаловаться. Раньше Facebook удавалось вовремя обнаружить только 97% из 1,1 миллиона подобных сообщений.

Посты, содержащие сцены насилия, удаляются до поступления жалоб в 0,22 —0,27%  случаев. За первые три месяца этого года под санкции попали 3,4 миллиона сообщений. В конце 2017 года было удалено 1,2 миллиона подобных постов, из которых заблаговременно получилось найти 0,16 — 0,19%.

Однако при обнаружении порнографического и сексуального контента искусственный интеллект показывает себя не лучшим образов. Facebook пришлось удалить по 21 миллиону сообщений такого характера, из которых до жалоб пользователей было отфильтровано всего 0,06 — 0,08%.

Зато посты, разжигающие ненависть или содержащие бранную лексику, автоматически стираются в 56% случаев. За первый квартал 2018 года было удалено 2,5 миллиона таких сообщений.

Согласно отчету, почти 100% постов, относящихся к категории «спам» удается стереть до обращения пользователей. В первом квартале 2018 года под санкции попали 837 миллионов сообщений.

Также в течение трех месяцев 2018 года было удалено 583 миллиона фейковых аккаунтов, против 694 миллионов в конце 2017 года. Искусственный интеллект помог обнаружить 3 — 4% из них.

Facebook отметила, что продолжит усиливать меры борьбы со всеми перечисленными категориями сообщений. Для этого социальной сети придется увеличить численность команды, следящей за безопасностью, до 20 000 человек.

ПОХОЖИЕ НОВОСТИ

Комментарии

comments powered by Disqus
Мы в социальных сетях: