人工智能算法正在从社会化媒体用户发布的有关奥运会的海量内容中筛选出唯一的使命:消除网络辱骂。
根据国际奥委会 (IOC) 的估计,2024 年夏季奥运会将产生超过 5 亿条社会化媒体帖子。这还不包括评论。保守估计,假设平均每条帖子有 10 个字,那么正文长度大约是《钦定版圣经》的 638 倍。如果你给每条帖子一秒钟的时间,那么阅读它需要将近 16 年的时间。
许多帖子都会提到人的名字,超过15,000 名运动员和 2,000 名官员将在职业生涯中压力最大的时期受到大量关注。欢呼和民族自豪感的表达与仇恨、有组织的辱骂、骚扰甚至暴力威胁并存。
这对奥运选手的心理健康构成了严重威胁,更加不用说他们在比赛中的表现了。但国际奥委会正在探索一种新的解决方案。在未来几周内,当你下次发布有关奥运会的帖子时,一个由AI驱动的系统将审查你的言论,以保护运动员免受网络欺凌和辱骂。
网络辱骂已成为精英体育界日益严重的问题,许多知名运动员呼吁采取更多措施保护他们。例如,美国网球运动员斯隆·斯蒂芬斯透露,她在一场比赛后收到了 2,000 多条辱骂信息。英格兰足球运动员裘德·贝林汉姆也公开表示,他和别的球员经常受到种族歧视。英国足协最近宣布,将资助一个警察部门起诉辱骂球员的人。
国际奥委会安全体育部负责人柯丝蒂·伯罗斯表示,近年来,奥运会在保护运动员健康方面逐渐重视运动员的心理健康,而体育界也在考虑社会化媒体在这一过程中所发挥的作用。我们大家可以很容易设置搜索过滤器来筛选出某些有害的单词或短语,但语言往往比这更微妙。大型语言模型能够在一定程度上帮助识别一段文本背后的感受和意图,即使没有明显的单词。国际奥委会用来清除网络辱骂的系统名为Threat Matrix,就是为此目的而训练的。
国际奥委会安全体育部负责人柯丝蒂·伯罗斯表示,近年来,奥运会在保护运动员健康方面逐渐重视运动员的心理健康,而体育界也在考虑社会化媒体在这一过程中所发挥的作用。“人际暴力可以以身体形式持续下去,但也可以在网上持续下去,我们正真看到整个社会都在发生网络虐待和恶语攻击。”伯罗斯说,人工智能不是万能药,但它是反击努力的重要组成部分。“假如没有AI系统,处理如此大量的数据是不可能的。”
很容易设置搜索过滤器来筛选出某些有害的单词或短语,例如诅咒或种族歧视言论。但语言往往比这更微妙。当你处理海量的内容时,你需要一个可以筛选含义的工具。这就是最新一代人工智能的用武之地。
大型语言模型(通过一系列分析大量文本中的模式来学习处理和生成语言,例如 ChatGPT 之类的工具)能够在一定程度上帮助识别一段文本背后的感受和意图,即使没有明显的单词。国际奥委会用来清除网络辱骂的系统名为Threat Matrix,就是为此目的而训练的。
格洛斯特郡大学高级讲师 Qublai Ali Mirza 研究过AI与网络欺凌的交集,他表示,像 Threat Matrix 这样的工具采用了多方面的方法。其中一个方面是情绪分析,即提取文本中蕴含的态度。以讽刺为例——人类可能很容易发现,但计算机才起步理解。Threat Matrix 等更先进的系统还能处理图像和表情符号如何改变文本含义——并且在理解不同语言和地区的不同含义和细微差别的同时完成所有这些工作。同样的工作需要大量人力,即使对于像国际奥委会这样拥有大量资源的组织来说,这个数量也过于庞大。
“这里最重要的是它允许自动响应。”阿里·米尔扎说,“从一开始就将这种行为扼杀在萌芽状态,并在受害者受到攻击之前解决它,这一点至关重要。”他说,最有效的反应是在辱骂影响到运动员之前开始的,这样他们就不需要寻求帮助了。
在奥运会期间,Threat Matrix 将与 Facebook、Instagram、TikTok 和 X 合作,扫描超过 35 种语言的社会化媒体帖子。该系统将识别针对奥运会和残奥会运动员、随行人员和官员的辱骂性评论——不过人类能选择退出。然后,它会将不一样的辱骂分类,并向人工审核团队举报帖子。
“人工智能承担了大部分繁重的工作,但人工分类至关重要。”伯罗斯说,当系统发现问题时,快速反应小组会检查帖子,寻找人工智能可能遗漏的背景信息,然后采取一定的措施缓解重大问题。这可能意味着联系受害者提供支持,对违反社会化媒体政策的帖子发出删除请求,甚至就更严重的威胁联系执法部门。据国际奥委会称,这通常会在运动员有机会看到违规内容之前发生。
伯罗斯称职业运动员是“网络欺凌的重灾区”,这在某种程度上预示着他们比普通人更容易受到攻击。这可能会带来难以处理的后果,尤其是当仇恨由多个施虐者联合起来时。
近代历史上不乏此类例子。2022 年奥运会期间,中国花样滑冰运动员朱易在比赛中摔倒后遭到了辱骂。据报道,中国社会化媒体平台微博上一个辱骂性话题在短短几个小时内就获得了超过 2 亿次浏览量。她告诉新华社:“网上每个人说的话都对我影响很大,现在的问题是心理问题。”
加拿大网球明星丽贝卡·马里诺告诉《》,网络欺凌是她决定在 2013 年暂时告别职业体育界多年的根本原因。印度女子篮球队队长希琳·利马耶遭受的欺凌很严重,她因此陷入抑郁,并向家人隐瞒了此事。她在接受德国《德国之声》采访时表示:“我开始怀疑自己,开始讨厌自己的身体。”橄榄球运动员欧文·法雷尔退出了今年的六国锦标赛,专注于心理健康问题。尽管法雷尔没有将这一决定完全归咎于网络评论,但他承认,在最近的一场锦标赛中,他不得不删除社会化媒体以保护自己。
英国拉夫堡大学体育商业高级讲师艾米丽·海迪说:“运动员遭受的虐待从未如此严重。”海迪最近领导了一项关于运动员遭受的社会化媒体恶毒行为的研究,该研究收集了前几届奥运会和残奥会期间引发网络骚扰的事件发生后 72 小时内发布的 240,000 多条推文。这些触发事件包括足球比赛中罚失点球到奥运选手亲吻伴侣等各种事件,引发了各种各样的虐待。
随后,研究通过采访运动员及其认识的人,跟踪运动员对网上恶语的反应。许多运动员遭受了心理和身体上的伤害,其中一名运动员因受到辱骂而自杀。海迪说:“一名 10 年前遭受网络辱骂的运动员至今仍在应对这种后果。”
不同类型的辱骂会带来不同的挑战。一些网络骚扰明显违反了社会化媒体政策,例如针对种族、性取向或国籍的仇恨言论。Hayday 说,从某一种意义上说,这种行为更容易处理,因为这一些内容明显令人反感,平台可以将其删除。但对于科技公司来说,控制与个人背景无关的情感虐待可能更为复杂。她说,在内容负面但不那么极端的情况下,社会化媒体平台保护的愿望意味着他们不能总是删除这些内容。
即使人工智能具备强大的能力,网络恶意评论仍是一个社会问题,而技术本身没有办法解决社会问题。根据这项研究,职业体育组织、教练和其他人需要确保运动员得到他们所需的支持。Hayday 在研究中发现的最严重的问题之一是,一些体育组织就没有任何系统来处理网络辱骂。她说,这仍然是一个问题,尽管情况正在改善。
“即使现在,情况也有很多模糊之处。遭遇虐待的运动员不知道该去哪里。通常没有人明确负责此事。”海迪说,“在一些组织中,责任可能是通讯部门。但我们正真看到,国际奥委会等机构正在尝试为运动员提供指导和支持,并建立更强大的系统,尤其是在比赛期间。”
体育界对社会化媒体的态度正在发生明显的变化,威胁矩阵是许多组织正在尝试的解决方案。2024年初,各网球管理机构采用了AI工具来监控赛事期间的威胁和辱骂。在美国,全国大学体育协会(NCAA)发起了一项倡议,旨在研究怎么样使用威胁矩阵来保护大学体育赛事中的员、教练和官员。该系统甚至被用于研究人工智能如何对抗电子游戏中的消极情绪。据国际奥委会称,威胁矩阵在最近的奥运会电子竞技锦标赛上进行了试点,并取得了巨大成功。
但 Burrows 表示,即使人工智能拥有如此强大的能力,网络恶毒言论仍是一个社会问题,而技术本身没有办法解决社会问题。Threat Matrix 只是保护运动员的更全面持续努力的一部分。
总体而言,社会化媒体公司一直在尝试很多方法来淡化其平台上的不积极的情绪。Instagram和TikTok都推出了通知功能,当平台检测到有人即将发布严厉或过于批评的评论时,会提醒用户选择更温和的词语。但在体育界,“高曝光率”的个人更容易面临网络攻击,解决方案的一部分涉及改变运动员自身的规范、态度和期望。这中间还包括国际奥委会的正念社会化媒体课程,旨在帮助运动员了解网上的正面和负面内容怎么样影响他们的心理健康,教授一系列策略和应对技巧,并确定额外支持的资源。
“这是关于采取一种整体方法来保障运动员的健康,我们致力于在体育运动中尽一切努力营造心理安全的环境,消除人们对心理健康话题的耻辱感。”伯罗斯说,尽管你听到过很多有关人工智能可能带来的负面影响的故事,但这一次技术能成为上涨的趋势的一部分。
- 2024-11-04【48812】不怕雾霾!美国新式“隐形”空气过滤器 能阻挠90%污染颗粒、细菌
- 2024-11-04【48812】大鹏职康展开“扇来清凉”夏天奶油胶电扇DIY活动
- 2024-11-04杭州科百特公司研发建设过滤分离产业链
- 2024-11-04上海水展访谈录:百年品牌汉斯希尔(SYR)
- 2024-11-04【48812】科技赋能!新式泊车防溜设备保证列车安全
- 2024-11-04假期结束别忘了对油烟净化器全方面检查、清洗维护保养!