来自 游戏攻略 2020-12-19 14:04 的文章

新技术允许ai在语音聊天中检测毒性,但我认为人

游戏中的毒性并不好玩,在我们的2020年的今年,似乎使用人工智能寻找和处理有毒球员的日益增长的趋势。我也不是在文字聊天中的意思;这些公司调制和面部都有创造的ai,可以认为可以猜测语音聊天的毒性,从某人说的话。

我的一部分,感觉这是一个好主意。有一种快速,容易摆脱它们的方法很棒。但是,我听到了一个太多关于AI学习成为种族主义的故事,所以我想知道它是否是投入电子游戏的最佳技术。

上周,调制揭示了一个新的AI供电适度工具名为toxmod。它使用机器学习模型来了解玩家所说的,以及他们如何它识别是否有人在语音聊天中令人讨厌。如果有人说咒骂,这些想法可以讲述它是否是一种卑鄙的咒骂或良好意义咒骂(思考“他妈的!”VS“他妈的!”)。

同样,面朝最近宣布他们的反毒性AI管理系统Minerva,现在也可以警察语音聊天。他们在包括CS的游戏中为第三方锦标赛和联赛运行了一个平台:去,火箭联盟和DOTA 2,并声称Minerva已经检测到超过190万个有毒信息,并禁止超过100,000名球员。大消息是Minerva现在能够分析玩家之间的完整谈话,并检测潜在的有毒语音聊天,以及令人讨厌的重复行为和声音。这是令人印象深刻的技术,肯定,但我不禁想知道怎么样l它的工作是这些常见的常见场所。

术语,我觉得我的怀疑论主要是因为人类。随着ToxMod的技术,如果玩家知道AI正在听他们的声音,他们就可以以好的方式说可怕的事情。如果我们把所有东西留给这样的自动化系统,那么有很多智能但可怕的人,仍然可以被视为礼貌的球员,而不是被淘汰。

如果AI的机器学习是动态的,那么它就直接学习了人类的工作,让我们说实话,非常操纵。但如果它从人类喂养的数据中学习,那么它可以很容易地吸收他们的偏见。

并不是说我认为所有AI和机器学习都是愚蠢的或任何东西,但它有点就像教国外(或一个幼儿)人类应该采取行动。有一个公平的少数人的AI学习奇怪和直接的不良行为。其中一个最着名的是Tay,Microsoft Chatbot学会成为Twitter上的种族主义者(从垃圾邮件到种族主义的人的人)。一个更严肃的案例涉及美国软件旨在对囚犯进行风险评估,这使得标志着黑人的错误,这可能是白人的两倍的两倍(从给予的数据学习)。显然,视频游戏显然,比这更严重 - 但在类似的静脉中,我觉得有些游戏AI可以教授自己(或确实被教导)那些口音或方言声音更加卑鄙相对于其它的。我不是在说G所有这些酷的AIS将最终结束 - 但是!从历史上看,我们并不擅长教他们不成为。

我扮演一堆游戏,在那里有很多声乐呼吸们渴望喷出令人讨厌的意见。在透明或valorant的喜欢,我不打扰语音聊天。我经历了所有愚蠢的性别歧视评论,他们甚至不再特别相位了(那些说狗屎有两个笑话),我只是厌倦了它。然而,我从中了解到的是,如果人们想成为你的笨蛋,并且不能用他们的声音做到这一点,他们会找到一种方法。悲伤,团队杀戮,投掷比赛,留下来 - 有些人太确定了让视频游戏吮吸。

Ai是酷的技术,如果它按预期工作,那么很棒!但似乎是pr当许多游戏中的基本报告和阻塞系统时,eTTY先进,并且在第一个游戏中也不应该工作。对我来说,打电话给其他玩家的球员似乎是处理有毒行为的最佳方式,但它需要用自动化系统携手正当,以消除利用的利益。建立更强大的报告系统,所以我们可以做得更好,这将是我的去。不幸的是,我认为很多人都太聪明了,而且太聪明而且却被人工智能纳入了人工智能。

关键词3个网址(www.shnrj.com)。