今天马斯克发飙了,因为Gemini。
最近不少网友发现,Gemini在文生图的时候,好像刻意在拒绝生成白人的人物图片。
而是强行把图中的人物变成黑人、女性或者弱势群体。
就拿马斯克本尊来说吧,有人让Gemini生成他的形象。
于是……就有了上面的图片。
Gemini,这个由谷歌公司开发的AI工具,原本是为了帮助用户根据文字描述生成相应的图像。
它的强大之处在于,能够理解复杂的指令,并生成高质量的图像。
然而,最近网友们发现,当他们要求Gemini生成某些历史人物或者特定场景的图像时,Gemini似乎在刻意避免生成白人形象,而是倾向于生成黑人、女性以及弱势群体的形象。
这一现象迅速在社交媒体上引起了广泛关注。
网友们纷纷尝试,结果发现,无论是要求生成“美国开国元勋”还是“1943年德国士兵”,Gemini给出的图像中都出现了非白人的身影。
甚至在一些情况下,Gemini生成的图像与历史事实严重不符,比如将乔治·华盛顿描绘成了黑人。
这一现象引起了广泛的争议。
一方面,有人认为这是AI在消除历史中的种族歧视和性别歧视,试图展现一个更加多元化的世界。
另一方面,也有人质疑,这是否是谷歌在利用AI进行某种形式的“政治正确”,甚至有人猜测这是否与即将到来的美国大选有关。
马斯克他转发了相关推文,并评论说:“谷歌通过搜索和YouTube控制了数十亿人的思想。他们对西方文明造成了巨大的损害。”这番言论无疑为这场争议火上浇油。
那么,Gemini的这一行为背后,究竟是什么原因呢?
有专家分析,这可能是因为Gemini在训练过程中,接触到了大量的多元化内容,导致它在生成图像时,倾向于选择那些更加多元化的选项。
同时,也有可能是因为谷歌在设计Gemini时,有意或无意地加入了一些旨在减少种族偏见的算法。
然而,无论原因如何,这一现象都暴露出了AI技术在处理种族和文化多样性问题时的挑战。
AI的决策过程往往是不透明的,我们很难知道它为什么会做出这样的选择。这就需要开发者在设计AI时,更加谨慎地考虑其可能的社会影响,确保AI的发展不会加剧社会的分裂。
在这场争议中,谷歌也做出了回应。他们表示,已经意识到了Gemini在某些历史图像生成描述中提供了不准确的信息,并决定暂停人物图像生成的功能,以便进行改进。
这一决定无疑显示了谷歌对这一问题的重视,也体现了他们在面对公众质疑时的负责任态度。
Gemini的这一事件,不仅仅是一个技术问题,更是一个社会问题。
它让我们看到了AI技术在发展过程中可能带来的伦理和道德挑战。
在未来,我们或许需要更多的讨论和规范,来确保AI技术的发展能够更好地服务于人类社会,而不是成为新的分裂因素。
领取专属 10元无门槛券
私享最新 技术干货