谷歌的“双子座”人工智能暂停生成人物图像:历史准确性危机 😱

谷歌暂时暂停吉米尼(Gemini)生成人物图像的功能,同时提高历史准确性

“`html

谷歌将暂停Gemini AI工具生成人物图像,因为存在历史不准确性 | ENBLE

在一个生成式人工智能突破界限、创造惊人事物的世界中,跌倒的时刻注定会发生。谷歌及其旗舰AI模型套件Gemini应运而生。最近,谷歌宣布将暂停Gemini生成人物图像的能力。你可能会问,为什么?嗯,显然输出中存在一些“最近的问题”涉及历史不准确性。👩‍💻

现在,在我们深入探讨这场历史准确性危机之前,让我们花点时间欣赏Gemini的奇迹。这款AI工具是谷歌本月早些时候推出的,利用生成式人工智能技术产生各种图像。从美丽的风景到可爱的动物涂鸦,Gemini似乎正席卷人工智能世界。但遗憾的是,即使是最强大的AI巨头也会出错。😉

历史错误和宝石失足 🌟

一旦Gemini登场,就很快开始产生一些令人难以置信的历史人物形象。想象一下,看到美国开国元勋被描绘成美洲印第安人、黑人,甚至亚洲人。现在,这些不协调的形象可能在社交媒体上大受欢迎,因为互联网喜欢模因和一切意想不到的事情,但对谷歌来说,这也导致了一些严肃的批评。😬

总部位于巴黎的风险投资家迈克尔·杰克逊(注意,不是那个迈克尔·杰克逊),趁机将谷歌的AI描述为“毫无意义的DEI恶搞”。疼!顺便说一句,DEI代表‘多样性,平等和包容性’。迈克尔对Gemini的不准确性不感兴趣,并在LinkedIn上发表了自己的看法。Gemini与历史人物的交集并非所有人都买账。🙈

谷歌暂停行动并开始思考 🤔

<p针对这一事件,谷歌承认gemini历史图像生成表现中的不准确性,并宣布他们正在努力改进技术。目标是确保历史准确性,终止对过去的不经意滑稽诠释。👴

但是,让Gemini歇口气吧。生成式人工智能工具,如Gemini,依赖训练数据和模型权重来产生输出。有时候,它们会遇到偏见和刻板印象。比如,谷歌2015年发布的AI工具曾将黑人男性错误分类为大猩猩。糟糕的失误,是吧?谷歌试图解决这个问题,但最终只是干脆禁止该工具完全识别大猩猩。这并不是我们希望得到的优雅解决方案,谷歌。🦍

问答: 关于Gemini未来的担忧 👀

Q: Gemini暂停生成人物图像将持续多久?

A: 谷歌表示这是一个暂时的中止,他们正在更新技术以提高历史准确性。所以,请放心!一个改良版的Gemini很快就会回归,为我们呈现历史准确的图像,让我们大家开心并受教育。📸

Q:其他AI工具会面临类似的历史准确性危机吗?

A: 这是很有可能的。像Gemini这样的生成式人工智能工具依赖大量数据,有时可能含有偏见或不正确信息。虽然公司们努力改进他们的AI模型,但这总是一个不断进步的过程。所以,以后听到类似失误一点也不奇怪。毕竟,AI也有它的怪癖!😉

生成式人工智能技术的影响和未来 🚀

当我们航行在不可预测的AI技术领域中时,很明显会遇到挑战。希望通过每一次跌倒,我们都能获得宝贵的见解和经验,引导我们走向更好的技术进步。谷歌的Gemini只是生成式人工智能世界中的又一块跳板。它的失误突出了历史准确性的重要性,以及训练AI模型时需要注意偏见和刻板印象的必要性。💡

“““html

生成式人工智能的未来非常令人兴奋。这些工具有潜力彻底改变各个行业,从艺术和电影制作到内容创作和设计。但是在我们不断突破界限的同时,我们必须坚定地努力生成准确且包容的成果。毕竟,我们不希望未来的历史书中充斥着莎士比亚骑恐龙的图片,对吧?🦖🎭

参考资料

  1. Google Gemini:有关新生成式人工智能平台的一切你都需要知道
  2. 文章标题
  3. 文章标题
  4. 文章标题
  5. 文章标题

嗨,亲爱的读者!你对谷歌在Gemini项目中出现的问题有什么看法?你是否曾经遇到过由人工智能生成的令人捧腹或不准确的图像?在下方评论中分享你的经历!请记住,在人工智能世界中准确性是避免莎士比亚骑恐龙的关键。因此,让我们不断努力推动更好、更包容的人工智能技术。别忘了与朋友和科技爱好者分享本文!📲💻

“`</p针对这一事件,谷歌承认gemini历史图像生成表现中的不准确性,并宣布他们正在努力改进技术。目标是确保历史准确性,终止对过去的不经意滑稽诠释。👴