Представители YouTube рассказали о том, как в рамках сервиса осуществляется работа по поиску и устранению контента, нарушающего установленные правила. Также опубликован первый отчёт, содержащий статистические сведения о выявленных нарушениях принципов сообщества. В дальнейшем такие отчёты планируется публиковать ежеквартально.

Дополнительно отмечается, что к концу года планируется улучшить систему информирования о нарушениях. Наконец, сервис внедряет историю жалоб для каждого пользователя. В специальной панели пользователь может увидеть статус видео, на которые он подал жалобу в связи с выявленными им нарушениями.

Для выявления контента, нарушающего правила YouTube, активно используются компьютерные системы. Благодаря этому миллионы роликов-нарушителей удаляются ещё до того, как кто-то успеет просмотреть их. Активное развитие систем машинного обучения позволяет ускорить устранение неподобающего контента в различных сферах риска, будь то экстремизм или спам.

Сообщается, что на протяжении четвёртого квартала 2017 года было удалено более 8 млн роликов, нарушающих правила YouTube. В большинстве этих видео были замечены нарушения двух типов: спам и публикация контента для взрослых. При этом 6,7 млн роликов было помечено машинными системами в качестве таких, которые требуют проверки. И 76% из них были удалены ещё до того, как кто-то успел просмотреть их. В начале 2017 года лишь около 8% видео, помеченных и удалённы за сцены экстремизма, блокировались прежде чем они наберут 10 просмотров. После внедрения системы машинного обучения в июне 2017 года выявление таких видео существенно ускорилось и теперь уже более половины таких роликов блокируется прежде, чем они наберут 10 просмотров.

При этом электронная система лишь помечает и отбирает потенциально неприемлемый контент, окончательное решение о необходимости удаления видео принимают люди. В прошлом году было принято решение привлечь 10 тыс. сотрудников к модерации видео до конца 2018 года. При этом уже были наняты специалисты, являющиеся экспертами в сферах экстремизма, борьбы с терроризмом, защиты прав человека. Также осуществляется расширение региональных команд модераторов.

Вместе с тем, к сотрудничеству привлекаются академические сообщества, правительственные органы и международные организации, которые помогают в проведении экспертиз систем, осуществляющих поиск неподобающего контента.

Информация предоставлена по материалам YouTube Official Blog

/

Представители YouTube рассказали о том, как в рамках сервиса осуществляется работа по поиску и устранению контента, нарушающего установленные правила. Также опубликован первый отчёт, содержащий статистические сведения о выявленных нарушениях принципов сообщества. В дальнейшем такие отчёты планируется публиковать ежеквартально.

Дополнительно отмечается, что к концу года планируется улучшить систему информирования о нарушениях. Наконец, сервис внедряет историю жалоб для каждого пользователя. В специальной панели пользователь может увидеть статус видео, на которые он подал жалобу в связи с выявленными им нарушениями.

Для выявления контента, нарушающего правила YouTube, активно используются компьютерные системы. Благодаря этому миллионы роликов-нарушителей удаляются ещё до того, как кто-то успеет просмотреть их. Активное развитие систем машинного обучения позволяет ускорить устранение неподобающего контента в различных сферах риска, будь то экстремизм или спам.

Сообщается, что на протяжении четвёртого квартала 2017 года было удалено более 8 млн роликов, нарушающих правила YouTube. В большинстве этих видео были замечены нарушения двух типов: спам и публикация контента для взрослых. При этом 6,7 млн роликов было помечено машинными системами в качестве таких, которые требуют проверки. И 76% из них были удалены ещё до того, как кто-то успел просмотреть их. В начале 2017 года лишь около 8% видео, помеченных и удалённы за сцены экстремизма, блокировались прежде чем они наберут 10 просмотров. После внедрения системы машинного обучения в июне 2017 года выявление таких видео существенно ускорилось и теперь уже более половины таких роликов блокируется прежде, чем они наберут 10 просмотров.

При этом электронная система лишь помечает и отбирает потенциально неприемлемый контент, окончательное решение о необходимости удаления видео принимают люди. В прошлом году было принято решение привлечь 10 тыс. сотрудников к модерации видео до конца 2018 года. При этом уже были наняты специалисты, являющиеся экспертами в сферах экстремизма, борьбы с терроризмом, защиты прав человека. Также осуществляется расширение региональных команд модераторов.

Вместе с тем, к сотрудничеству привлекаются академические сообщества, правительственные органы и международные организации, которые помогают в проведении экспертиз систем, осуществляющих поиск неподобающего контента.

Информация предоставлена по материалам YouTube Official Blog

_.jpg">

Более 80% роликов-нарушителей на YouTube выявляется искусственным интеллектом / Лента новостей / Главная

Борменталь Зорин 25.04.2018, 11:40

Представители YouTube рассказали о том, как в рамках сервиса осуществляется работа по поиску и устранению контента, нарушающего установленные правила. Также опубликован первый отчёт, содержащий статистические сведения о выявленных нарушениях принципов сообщества. В дальнейшем такие отчёты планируется публиковать ежеквартально.

Дополнительно отмечается, что к концу года планируется улучшить систему информирования о нарушениях. Наконец, сервис внедряет историю жалоб для каждого пользователя. В специальной панели пользователь может увидеть статус видео, на которые он подал жалобу в связи с выявленными им нарушениями.

Для выявления контента, нарушающего правила YouTube, активно используются компьютерные системы. Благодаря этому миллионы роликов-нарушителей удаляются ещё до того, как кто-то успеет просмотреть их. Активное развитие систем машинного обучения позволяет ускорить устранение неподобающего контента в различных сферах риска, будь то экстремизм или спам.

Сообщается, что на протяжении четвёртого квартала 2017 года было удалено более 8 млн роликов, нарушающих правила YouTube. В большинстве этих видео были замечены нарушения двух типов: спам и публикация контента для взрослых. При этом 6,7 млн роликов было помечено машинными системами в качестве таких, которые требуют проверки. И 76% из них были удалены ещё до того, как кто-то успел просмотреть их. В начале 2017 года лишь около 8% видео, помеченных и удалённы за сцены экстремизма, блокировались прежде чем они наберут 10 просмотров. После внедрения системы машинного обучения в июне 2017 года выявление таких видео существенно ускорилось и теперь уже более половины таких роликов блокируется прежде, чем они наберут 10 просмотров.

При этом электронная система лишь помечает и отбирает потенциально неприемлемый контент, окончательное решение о необходимости удаления видео принимают люди. В прошлом году было принято решение привлечь 10 тыс. сотрудников к модерации видео до конца 2018 года. При этом уже были наняты специалисты, являющиеся экспертами в сферах экстремизма, борьбы с терроризмом, защиты прав человека. Также осуществляется расширение региональных команд модераторов.

Вместе с тем, к сотрудничеству привлекаются академические сообщества, правительственные органы и международные организации, которые помогают в проведении экспертиз систем, осуществляющих поиск неподобающего контента.

Информация предоставлена по материалам YouTube Official Blog

Тэги:   Видеосервисы

ПОХОЖИЕ НОВОСТИ

Комментарии

comments powered by Disqus
Мы в социальных сетях: