Новый патент Amazon описывает оригинальный способ борьбы с токсичностью и оскорблениями в онлайн-играх. Компания запатентовала алгоритм, который следит за поведением игроков и, если они ведут себя плохо, определяет их в матчи с другими такими же вредными игроками.
Патент, замеченный Protocol, вполне вписывается в существующую тенденцию. Многие игры, включая Apex Legends и мультиплеерный режим Max Payne 3, уже модифицировали свои античит-системы подобным образом. Они не банят обманщиков, а всего лишь ограждают их от честного игрового сообщества, вынуждая сражаться исключительно против других читеров.
Новый патент Amazon призван ловить не пользователей запрещенных модификаций, а игроков, которые оскорбляют или каким-либо иным образом проявляют неуважение к другим пользователям. Система учитывает не только непосредственное общение, но и логины пользователей, а также анализирует иные метрики поведения. На основе собранной информации пользователю присваивается рейтинг “благонадежности”, а матчи подбираются с учетом этого рейтинга.
Это довольно похоже на игровую версию “системы социального рейтинга” которая уже используется правоохранительными органами Китая. Разница лишь в том, что ставки с игровым алгоритмом намного ниже. Он никому не мешает заходить в игру, а лишь гарантирует, что злостный матершинник и тролль будет играть в компании с такими же матершинниками и троллями, как и он сам.
Хотя технология выглядит довольно интересно, важно учитывать, что речь идет лишь о патенте. То есть, никто не гарантирует, что подобная система когда-нибудь будет реально разработана и внедрена в какую-либо игру.
Если хотите получать новости через мессенджер, подписывайтесь на новый Telegram-канал iGate