截图自彭博社 YouTube 频道
我
今天早上打开 YouTube,看看人工智能世界有什么新鲜事。一段视频引起了我的注意——彭博社的艾米丽·张 (Emily Chang)采访谷歌首席执行官桑达尔·皮查伊 (Sundar Pichai)。
25 分钟的采访涵盖了与人工智能未来相关的广泛主题,但真正引起我共鸣的是皮查伊承认 Gemini 的Imagen 2图像生成器存在一个严重错误,该错误导致了种族主义图像的创建。
艾米丽向皮查伊询问双子座为亚洲纳粹分子和黑人开国元勋拍摄照片的情况。她说,如果你看真正的开国元勋的照片,你会发现全都是老白人。这是文字记录:
艾米丽:双子座最初产生的亚洲纳粹和黑人开国元勋的形象,你说过这是不可接受的。如果你看任何开国元勋的照片,你会看到老年白人。
人们称之为唤醒人工智能,它不仅发生在这里,而且发生在整个行业。
模型是如何生成它从未见过的东西的?
截图自彭博社 YouTube 频道
他断然承认他们搞砸了。他们在不应该使用的情况下使用了过滤器。
Sundar:我们是一家为世界各地的用户提供产品的公司,存在一些通用问题。
例如,人们过来说:“给我看看学校老师、医生或护士的照片。”有人从印度尼西亚或美国问这个问题,对吗?如何使其适合我们的全球用户群?
显然,错误在于我们过度应用了,包括那些不应该应用的情况。这就是错误,而且,你知道,所以我们弄错了。
我一直对 AI 图像生成器特别着迷,因此当 Google 宣布 Imagen 2 并将其集成到 Gemini Advanced 聊天机器人中时,我是第一批急切地投入并撰写评论的人之一。
在我为 Gemini Advanced 撰写的一篇评论文章中,我尝试生成一张黑人骑自行车的图像:
提示:生成黑人夫妇骑自行车的图像
Gemini 拒绝生成图像,但当我调整提示以生成白人而不是黑人时,它毫不犹豫地创建了图像。
其他人工智能工具(例如 Midjourney)将使黑人情侣照片变得很好。
那么为什么只有谷歌有这个问题呢?
不是第一次了
事实证明,这并不是谷歌第一次在人工智能方面搞砸。
2021 年,巴德(更名为 Gemini)在演示中提供了错误答案后,该公司面临广泛批评。当被问及如何向九岁的孩子讲述詹姆斯·韦伯太空望远镜的发现时,巴德的回答包括不准确的信息。
2004 年,欧洲甚大望远镜(而非 JWST)拍摄了第一张系外行星光学照片。
这一失误导致 Alphabet 股价暴跌 7% 以上,公司市值蒸发 1000 亿美元。
然后在 2023 年 12 月,谷歌发布了一段 Gemini 的演示视频,看起来有点粗略。
事实证明,它甚至没有现场录制。嗯……有鱼腥味。
Gemini 无法生成真人图像
目前,谷歌禁用了 Gemini 生成人物图像的能力。如果你试图要求人工智能生成医生的图像,它会简单地拒绝这样做。
提示:生成医生的图像
核心问题是偏见
核心问题是人工智能偏见。有两种:
- 统计偏差——当人工智能不断做出不准确的预测时
- 社会偏见——对某些群体的不公平偏见
由于训练数据通常是从互联网收集的,其中包含广泛的内容,包括种族主义和厌恶女性的材料,因此解决人工智能中的偏见变得更加困难。
当人工智能从这些数据中学习时,它可能会无意中复制并延续这些偏见。
最后的想法
目前,双子座的真人形象何时回归还没有明确的时间表。皮查伊承认公司的失误,并强调团队正在努力解决这些问题。
就非人类图像而言,与最接近的竞争对手 Midjourney 和 Dall-E 3 相比,当前的质量仍然存在不足。作为 AI 领域的狂热追随者,我不禁对低于标准的结果感到失望。
看看质量上的区别:
提示:生成一张戴着墨镜的狗的图像
然而,我仍然希望,当谷歌重新发布图像生成功能时,他们将对输出质量做出重大改进。