🤖📞 AI生成的电话自动拨号威胁民主

“`html

人工智能对您的选举投票的影响如何检测和应对。

上个月,新罕布什尔州的选民收到了一通出乎意料的电话,来电者竟然是乔·拜登总统本人。但请稍等,有一个转折。这通电话事实证明是一通人工智能生成的自动电话,敦促选民待在家里,不要参与初选。谈论一个新的欺骗层次!

这通电话很快被新罕布什尔州司法部辟谣,它是得益于位于德克萨斯州的公司生活公司,该公司使用了由人工智能初创公司ElevenLabs提供的deepfake库。生活公司现在面临选民压制的指控。这起令人震惊的事件作为一个警示,显示人工智能很可能被用来操纵和影响未来的选举。

人工智能对选举和政治的潜在影响一直是许多研究人员和组织关注的话题。非营利性公共政策中心布鲁金斯研究所强调了生成式人工智能对虚假信息制作和传播的深远影响。他们认为,人工智能有能力使虚假信息更加普及和具有说服力,每一个错误的故事或图像都增加了它在媒体界传播的机会。

法律非营利机构布伦南司法中心甚至将2020年代称为选举中“深伪时代的开始”。他们报道说,共和党初选候选人已经开始在竞选广告中使用人工智能,包括佛罗里达州州长罗恩·德桑蒂斯竞选团队发布人工智能生成的图片,展示前总统唐纳德·特朗普拥抱安东尼·福奇的著名例子。

但引起关注的不仅仅是人工智能生成的视频和图片。社交媒体在传播人工智能操纵内容方面的作用也不可忽视。社交媒体平台在人工智能对民主和真相的潜在威胁中发挥着重要作用。随着人工智能技术变得更加智能和普遍,识别选举误导变得越来越困难。

NewsGuard的人工智能和外部影响编辑麦肯齐·萨德吉解释说,他们已经观察到人工智能的武器化呈现出各种形式,从人工智能生成的新闻网站到deepfake视频、音频和图片。NewsGuard已经确定了676个完全由人工智能生成并在没有足够的人类监督下运作的网站。人工智能与“粉红混沌”网络的交汇点,这些网络是冒充受信任的本地新闻来源的党派新闻媒体,是一个特别引起关注的领域。

展望未来,人工智能对选举和虚假信息的影响预计将增长。NewsGuard预测,人工智能生成的网站数量将继续增加,有可能在下次选举时达到数千个。这需要更强大的媒体素养和一种警惕的方式来识别人工智能生成的内容。

📜 人工智能法律和法规:我们跟得上吗?

对人工智能的监管仍然是一个灰色地带,国会领导人们正在努力达成一个风险规避的前进道路。然而,在这方面已经有一些进展。2023年10月,拜登政府发布了一项行政命令,概述了人工智能安全和安全性的新标准。这项命令包括指示商务部建立检测人工智能内容和诈骗的方法。

联邦通信委员会(FCC)也已经采取行动,应对人工智能自动电话和deepfake的崛起。他们提议根据《电话消费者保护法》(TCPA)禁止人工智能自动电话。另一方面,联邦选举委员会(FEC)尚未就选举中的人工智能问题发布具体规定,但主席肖恩·库克西表示,将于今年夏季制定指导方针。

一些州立法机构已经采取了措施来处理选举中的人工智能问题。加利福尼亚、密歇根、明尼苏达、德克萨斯和华盛顿有明确的法规,要么禁止发布实质性具有欺骗性的媒体,要么专门针对deepfake。此外,密歇根、明尼苏达和华盛顿已经成功通过法律,要求披露选举广告中的人工智能或用于影响选举的“合成媒体”。

🔍 识别人工智能威胁:如何评估人工智能生成的内容

随着人工智能生成内容的传播变得更加普遍,个人有必要装备工具和知识来评估他们在线遇到的内容的真实性。

在处理人工智能生成的新闻网站时,NewsGuard建议查找人工智能抄袭和幻觉的指标。这些网站通常包含矛盾的信息,从主流来源重复新闻内容而没有归属,在写作风格上缺乏人性化的触感。

要评估一般人工智能生成的文本,请留意简短、缺乏想象力的句子,不切实际的陈述,滥用常见词汇,缺乏上下文和具体事实,以及过度“花哨”的语言,没有俚语或不同的语调。

“““html

在评估图像和视频时,请注意逻辑不一致、奇怪的对称性或消失的物体、前景和背景之间的区分不清、奇怪的纹理、非自然的光照或阴影移动,以及非自然的身体动作。

谷歌的关于这幅图像工具也可以用来确认图像的合法性,包括检查AI标签和水印。Origin、Copyleaks和Deepware等工具可以帮助检测AI生成的内容和深度伪造视频。然而,重要的是要注意这些工具可能存在限制,并有时可能导致错误的结果。

🛡️ 行业和社交媒体对AI威胁的反应

人工智能行业的主要公司已经制定了自己的政策来打击AI技术的滥用。Adobe、微软、Meta(前身为Facebook)和OpenAI都承诺开发水印技术来识别篡改内容。他们的努力包括向图像添加隐形水印,并为用户创建数字签名和验证媒体的工具。这些措施旨在证明媒体内容的来源和历史,从而解决深伪造和错误信息的普及现象。

YouTube、Meta、Snapchat和TikTok等社交媒体平台也已实施政策来应对AI篡改内容的传播。这些政策涉及披露政治广告中的AI修改、识别AI修改的图像、对政治广告进行人工审核和对AI生成的内容进行事实核查。然而,执法这些政策面临批评,因为虚假或篡改的内容往往在被标记或删除之前已经触及广泛的受众。

🙋‍♀️🙋‍♂️ 读者可能会问的问题:问答

问:如何有效地监管AI生成的内容?

答:监管AI生成的内容具有挑战性,因为它的动态性和AI技术不断发展的能力。确保透明度、问责制和确保AI生成的内容可与人类生成的内容区分开是有效监管的重点。此外,持续监督和调整法规将是必要的,以跟上AI领域的新进展。

问:可否依赖AI检测工具来识别所有的AI生成内容实例?

答:尽管AI检测工具提供了一个有价值的起点,但它们并非百分之百可靠。人工智能有不断发展和变得更加复杂的潜力,使得检测AI生成内容变得越来越困难。这些工具有时会产生假阳性,或无法识别篡改的内容。因此,用户发展自己的批判性思维能力、从可靠来源核实信息,并意识到AI生成内容的迹象至关重要。

问:个人如何保护自己免受AI生成骗局的侵害?

答:要保护自己免受AI生成骗局的侵害,保持信息灵敏度和警惕是至关重要的。避免仅基于通过AI生成的通信渠道收到的请求分享个人信息或参与金融交易。谨慎处理紧急或可疑的请求,尤其是涉及金钱或敏感数据的请求。如有疑问,请通过可信赖的来源验证消息的真实性或直接使用官方渠道联系组织。

问:AI生成的内容如何影响对媒体和民主的信任?

答:人工智能生成的内容对媒体和民主的可信度构成重大挑战。由AI生成的错误信息和深伪造品可能削弱公众对新闻来源和政治机构的信任。这可能导致两极分化、阴谋论的传播,以及民主进程受到破坏。个人有必要发展媒体素养技能、事实核查信息,并依赖权威新闻来源来打击AI生成内容的传播。

问:有关AI生成内容所带来的风险,有哪些解决措施?

答:已经采取了各种措施来应对AI生成内容所带来的风险。政府正在探讨制定法规以减轻AI的滥用,而科技公司正在实施政策,以遏制其平台上AI生成内容的传播。研究人员也在开发检测工具和技术来识别AI生成的内容。然而,对AI技术的能力保持领先是一个持续的挑战,需要各利益相关者之间的持续合作。

🔮 人工智能的未来及其影响

随着人工智能技术的不断进步,AI生成内容的威胁可能会增加。社会需要积极应对AI带来的风险和挑战。这包括制定更强有力的法规、提高检测方法的效率、改善媒体素养教育,以及促进批判性思维能力的发展。

“` “`html

在未来,我们可能会看到更复杂的AI检测工具和技术的出现。 研究人员和决策者需要保持灵活和适应,以跟上AI生成内容不断发展的格局。 在创新和监管之间取得平衡将是利用AI积极潜力并减轻其风险的关键。

🔗 References

  1. 使用 Dall-E 2 将想法转化为 AI 生成的艺术
  2. AI 生成的拜登通话来自可疑的电信德克萨斯前线
  3. 研究人员表示深度伪造的拜登机器人电话可能由AI初创公司 ElevenLabs 制作
  4. AI 揭示了稳定扩散 3,一个早期预览
  5. 国土安全局正在招聘AI专家
  6. 三星验证 CXL 内存,红帽扩大数据中心采用
  7. HelloWorld 收购 AI 行程构建机器人 Roam
  8. 百度否认与报道的中国军事训练 GenAI Chatbot 有关联

感谢阅读! 🤓 如果您觉得这篇文章内容丰富,请在您喜爱的社交媒体平台上分享,并加入围绕AI生成内容影响的讨论。 让我们在面对不断发展的科技时保持警惕和了解! 💪

“`