ToxMod가 독성 게임 채팅을 수정하는 방법

주요 내용

  • 보스턴에 본사를 둔 모듈레이트(Modulate)의 ToxMod는 파괴적인 말을 실시간으로 자동으로 감지하고 대응한다고 주장합니다.
  • ToxMod는 단순한 언어로 제한되는 대신 기계 학습을 사용하여 감정, 볼륨 및 리듬과 같은 무형의 요소를 파악합니다.
  • ToxMod는 현재 게임 내 대화방에서 사용하도록 설계되었지만 Twitch 채널에 올 수 없는 이유는 없습니다.
집에서 고등학생 온라인 게임

모모 프로덕션 / 게티 이미지

보스턴에 본사를 둔 한 회사는 기계 학습을 사용하여 세계 최초의 제품을 만들고 있습니다. 말하는 내용과 내용을 구분할 수 있는 음성 네이티브 중재 서비스 수단.

톡스모드 인터넷의 열린 공간을 조정하는 역설을 해결하려는 시도입니다. 수요를 따라갈 수 있는 사람이 충분하지 않지만 알고리즘, 필터 및 보고 시스템은 미묘한 차이를 이해하지 못합니다.

ToxMod의 데이터베이스를 사용하면 감정 및 볼륨과 같은 플레이어의 말 요소를 추적할 수 있으므로 일시적인 실수와 행동 패턴을 구별하는 데 도움이 됩니다. 그것은 최근 7v7 미식 축구 게임에 추가로 발표되었습니다. 석쇠, 현재 Steam Early Access에 있습니다.

"음성 채팅과 게임에서의 괴롭힘, 증오심 표현, 독성이 심각한 문제라는 것은 모두가 알고 있습니다. 그것은 일반적으로 이해되는 것입니다."라고 CTO이자 공동 설립자인 Carter Huffman은 말했습니다. 변조, Lifewire와의 Google 회의에서. "이러한 다양한 머신 러닝 시스템을 통해 추출한 기능을 우리가 에서 배운 이 모든 전문 지식을 고려한 시스템으로 통합하십시오. 지역 사회."

새로운 로봇 중재자를 모두 환영합니다.

Modulate는 작년 가을부터 ToxMod를 개발해 왔으며 이를 회사의 3가지 핵심 서비스 중 하나로 통합했습니다. 또한 기계 학습으로 구동되는 음성 위장인 VoiceWear와 사용자가 커뮤니티의 사람들이 토론하는 내용을 찾을 수 있도록 하는 집계 서비스인 VoiceVibe를 제공합니다.

ToxMod가 채팅에서 실행 중일 때 Modulate의 관리 패널을 통해 경고 발행, 플레이어 음소거 또는 개별 볼륨 조정과 같은 다양한 자동 작업을 수행하도록 프로그래밍할 수 있습니다.

확인을 위해 Modulate의 서버에 확인하기 전에 로컬 인스턴스가 가장 먼저 조치를 취하는 분류 시스템을 사용합니다. 그런 다음 마침내 인간의 개입이 필요할 정도로 확대됩니다. Modulate가 "분류 게이트"라고 부르는 각 검사를 차례로 실행함으로써 ToxMod는 소규모 중재자 팀에게 훨씬 더 큰 규모의 중재자를 효과적으로 중재할 수 있는 도구를 제공합니다. 지역 사회.

"슬픈 진실은 모든 사람들이 당신이 어떤 플랫폼에서 음성 채팅을 사용하려고 시도하는 그런 경험이 있다는 것입니다. Modulate CEO Mike Pappas는 화상 통화에서 라이프와이어. "들어가서 '여기는 서부가 아닙니다. 규칙이 있어요.' 그게 정말 중요한 것 같아요."

시스템 파괴

당연히 ToxMod에 대해 묻는 두 번째 또는 세 번째 질문은 이를 깨는 방법입니다.

Twitter를 제어하는 ​​알고리즘과 같은 많은 자동 중재 시스템을 사용하면 좋아하지 않는 사람들과 쉽게 게임을 할 수 있습니다. 몇 개의 양말 인형 계정으로 대상을 대량 보고하기만 하면 그들은 확실히 금지를 먹을 것입니다.

Pappas는 "기준 수준에서 ToxMod는 이러한 추가 플레이어 보고서에 의존할 필요가 없습니다. "우리가 주의를 기울여야 하는 범죄에 대한 확실한 추정치를 여전히 산출할 수 있습니다. 실제로 게임할 것이 없기 때문에 플레이어가 시스템을 게임하려고 하는 것에 대해 걱정할 필요가 없습니다.

"음성 채팅과 게임에서 괴롭힘, 증오심 표현, 독성이 심각한 문제라는 것은 모두가 알고 있습니다."

"플레이어로서 제어할 수 있는 것은 자신의 오디오뿐입니다."라고 Pappas가 말했습니다. "당신이 할 수 있는 최악의 일은 덜 나쁜 사람으로 우리가 당신을 나쁜 배우로 표시하지 않는 것입니다. 나는 그것이 임무 성공에 가깝다고 말하고 싶습니다."

일반적으로 ToxMod의 아이디어는 적극적인 회수 시도입니다. 이 시점에서 많은 플레이어는 무작위 모욕에서 적극적인 위협에 이르기까지 공개 음성 채널에서 무작위 낯선 사람으로부터 어떤 형태의 괴롭힘을 경험했습니다. 결과적으로 게이머는 일반적으로 음성 채팅을 기피하는 경향이 있으며 마음의 평화를 얻기 위해 편의성을 포기하는 것을 선호합니다.

Pappas는 "[악의적인 행위자가] 음성 채팅에서 발견되어 제거되는 데 훨씬 적은 시간을 할애할 것으로 기대하고 있습니다."라고 말했습니다. "그것은 선형적인 영향 이상을 가지고 있습니다. 모두가 음성 채팅을 더 안전한 곳으로 볼 때 더 많은 좋은 배우가 음성 채팅으로 다시 와서 시도합니다. 모든 것이 긍정적인 방향으로 흘러갈 수 있다고 생각합니다."