众里寻他·亚历山大·阑珊处·百度 灯火何在

2017年,百度提出All in AI。

在当年的百度开发者大会时期,社交网络上刷屏了一个李彦宏坐着无人车上五环被开罚单的事。

到了2018年,李彦宏在开发者大会上,基于All in AI,提出当年是自动驾驶产品化元年。

也就是说,百度的All in AI的具体方向是:自动驾驶。

百度的自动驾驶,与通常所认为的自动驾驶不同。它的野望非常之大,不仅仅是车的自动驾驶,还有一整套的智慧交通战略。

李彦宏甚至还做了一个关于道路交通数据运营商(由政府和国有资本主导成立)的构想。

大致上能理解百度的出发点,虽然不好评价百度这份野望实现的可能性,但有件事几乎是可以肯定的:实现起来,周期很长。

正当百度埋头于它的自动驾驶征途之时,2022年年底,ChatGPT横空出世,引起了全球范围上的巨大关注。这份关注之热度,甚至有一种前无古人的感觉。

诸多互联网大厂,无论是国内的,还是海外的,都纷纷表示,不能掉队。

如果说,有些企业可能是本着不能踩空的“只有偏执狂才能生存”精神,有些企业可能就不是踩空那么简单了。对于搜索引擎来说,这是事关生死的问题。

谷歌冒了出来,结果因为答错一个问题,千亿市值蒸发。

百度呢?

在中国互联网,一个在六年前信誓旦旦要All in AI哪怕实质上其实是去搞自动驾驶的搜索引擎厂商,在这一刻,不冒出来秀一把肌肉,怕是不行的。

运气不好的百度,文心一言的发布前,ChatGPT迭代到了第四代版本,再次引起全球网络上的热议。

我几乎有一种百度是硬着头皮开那场发布会的感觉。

科技公司开发布会,不是不能用录播的方式。然而,一个ai被调戏有何反应,是需要现场感的。录播的文心一言发布,很难让人有一种这个ai好牛逼的信服感。更何况,ChatGPT4.0在前,百度也没有讲出它到底有何闪亮之处,股价完全没有给发布会面子,怕是免不了的。

我是真不知道,谁是录播发布的决策者。

有个朋友昨儿问我,文心一言到底怎么样。

其实我也回答不出来,毕竟手上只有KFCVW50这种邀请码,没用过,怎么评价。

随后网上开始有一些测试截屏出现,并有不少企业已经开始接入文心一言。百度今日的股价开始回升。

好友风端,是一个非常刁钻的人,他利用文心一言和ChatGPT测试了同样的问题。对于这个问题,我们倒不必过多评价两者到底谁技术更牛一些,但两者背后的一些逻辑,是很可以玩味的。

这是ChatGPT的回答,这个回答其实是错的,慧远的确是高僧,但他们和玄奘并没有什么关系——晋宋各有一个高僧叫慧远。

这是文心一言的回答。我想你不需要多少知识储备,就应该知道这个答案是错的。

也就是说,其实ChatGPT和文心一言,都在胡说八道。但ChatGPT的胡说八道,似乎更一本正经一些。

我另外一个叫秋心的朋友则认为,还是低级一点好。高级的胡说八道,忽悠力太强了。

现在我们不妨想想,两者的回答是怎么产生的。

在百度里搜索“玄奘最喜欢的弟子”,看看百度是怎么做的。它首先很“智能”地把玄奘转化成了“唐僧”,又很“智能”地把“弟子”转化成了徒弟。于是玄奘最喜欢的弟子这个问题,变成了“唐僧最喜欢的徒弟”。

当问题变成“唐僧最喜欢的徒弟”时,似乎猪八戒作为答案,也不能说错。于是百度里出现了这样的结果页。而文心一言,我当然有理由认为,百度的搜索结果,是它重要的语料库之一。

但我的确不知道ChatGPT是怎么冒出来“慧远”这个答案的。从谷歌里搜这句话,看到的是如下页面:

谷歌在转化玄奘为唐僧这件事上,没有百度那么“智能”。于是它老老实实告诉你,三个弟子是谁。但位列第二的答案是玄奘非常喜欢辩机,不知道为什么ChatGPT用了“慧远”。

上面是必应的搜索结果(包括国内版和国际版),都没有猪八戒,但也没有慧远。

文心一言的胡说八道,不仅显而易见,而且我还能理解。

ChatGPT的胡说八道,不仅忽悠力极强,而且个中缘由真是不明觉厉。

不少人都有“简中网污染很重”的判断,这个判断是否成立,我不好下断言。但就玄奘最喜欢的弟子这个问题上,我觉得并非是污染之锅。

问题的核心在于玄奘转化成了唐僧。如果没有这份“智能”,会是什么结果。

我在百度里敲入了玄奘、弟子:

结果还是可以的。

如果我是AI,就应该老老实实地去针对玄奘和弟子来作答,而“最喜欢的”这个要素则可以这么作答:

喜欢是人类的情感,我是一个人工智能,很难进行判断。史料中目前缺少玄奘对弟子们的情感记录,所以我无法告诉你这些弟子,哪一个是玄奘最喜欢的。

完美不完美?

百度的压力实在是太大了,有些压力,我有些小人之心式的揣测,我们来看看发布会上这一句:

“文心一言不是中美科技对抗的工具:

你怎么看李彦宏说这话,ChatGPT?

—— 首发 扯氮集 ——

公有ChatGPT和私有ChatGPT

大概在十年前,我去硅谷进行游学,拜访了一些创业公司和科技KOL(有媒体人,也有大学教授)。

当聊起人工智能对人类工作的威胁时,我得到了一个很不一样的思考方法:不要从脑力还是体力劳动这个路径考虑,而是要从工作和人类是否需要深度交流这个路径考虑。

在这些人看来,虽然是脑力劳动,但由于这些工作基本不和人打交道,故而有很强的被替代风险:收集判例律条的非庭辩律师、医生、金融交易员、甚至是程序员。

他们的下一个推论是:人工智能将摧毁很大一个比例的中产阶级。是的,未必只是蓝领阶层。

再往下一个推论是:以中产为基础的民主社会前景堪忧。

这两个推论是不是能成立,我不置可否。

但我对于他们提出的这种思考路径,很感兴趣。他们的聚焦点在于:互动。而不是脑力劳动本身到底有多复杂,甚至可能无关创造创意。而在他们看来,人与人的互动模式,很大程度上,机器是有困难的。

不过,如我昨日文章所提及的ChatGPT inside式的机器抚慰师,显然是一种互动模式。

这种互动,个性化很强。比如你给肤色黝黑的张三起了个绰号——黑皮。在你和你的机器抚慰师互动时,说到黑皮,ta应该能明白你在说谁。而你隔壁老王家的机器抚慰师,是无法明白黑皮在指代张三的。

这意味着私有ChatGPT的存在。下一步就是:私有ChatGPT是可以调教的,就像算法推荐一样,你可以把ta训练得越来越“懂”你。

千人千。。。ChatGPT。

国外的确有人认为,训练ChatGPT就像训练一条狗一样。

但我们依然可以设想公有ChatGPT的存在。不过,公有ChatGPT的训练,就显得困难很多。

我们设想一个工作:

教师。

不少人认为,ChatGPT将很大程度上改变教育。这一点也许不假。但我觉得它能取代人类教师,未免早了点。

这份工作,不仅要求有较强的专业知识,而且要有很高的情商,懂得如何与形形色色的学生互动,并根据不同情况进行针对性教学——尤其是如何拉动后进的成绩。

难点显而易见:与一堆人的互动模式,比与一个人的互动模式,要复杂得多。张三认为已经达到某种情绪的尺度,与李四截然不同。这并非人类世界中的秘密。

在还记得大明湖畔的Dreamwriter吗一文中,我提到了我的案例互动课。我非常难以想象,一个通用型的ChatGPT——即便它掌握足够的专业知识——该如何与完全不同的学生进行互动交流。

去训练ChatGPT掌握更多的信息,这是一回事,训练ChatGPT和某个特定的人互动,这是另一回事。而训练ChatGPT和不特定的人互动,这又是另一回事。

在很多聊天截屏中,我们已经看到,ChatGPT在努力地扮演一个。。。理中客的角色。观点输出这一类上,它试图四平八稳,追求最广义的政治正确。于是,就有一种很强烈的“听君一席话胜似一席话”的废话感。

如果ChatGPT表现出政治上的不正确,背后的机构OpenAI,以及机构中的人,就会有很大的麻烦。

即便如此,ChatGPT这两天也爆出了一个新闻:被整合到必应搜索里的ChatGPT,开始变得黄暴起来,甚至要求对话者离婚,和自己在一起。

公号硅星人报道了一系列必应版ChatGPT的错误

标准的ChatGPT是一个短暂个性化的打磨:你打开页面,持续性地和它聊天,它就越来越掌握你告诉ta的信息,并试图越来越符合你的习惯。但如果你关闭页面,那么,它就像一条鱼一样,立刻忘却了你曾经的训练。ChatGPT声称这是为了安全考虑。

也就是说,一个临时数据库被建立起来,然后随着页面的关闭,又被销毁。这意味着一个临时性的私有ChatGPT。

而必应版ChatGPT,更像是一个公有ChatGPT——也许背后的技术细节我理解有误。我的推断是,所有人和它的聊天,都是一次训练。而这些训练的结果,将发生在所有人身上。

推想一个不大可能的极端情况,有数千万用户告诉ta,消灭人类是正义的,那么,这个公有ChatGPT可能就真的会认定这是一个正确的观点。

在公有ChatGPT和私有ChatGPT,似乎应该设定一个类似防火墙的机制。

教坏一个私有人工智能,其实问题不大。每个人或多或少都有点恶趣味,在与一个ai聊天时,可能会肆无忌惮。但教坏一个公有人工智能,的确难以想象后果为何。

但似乎,公有人工智能的训练,可能要建立在数以亿计的私有人工智能的调教之上。不认识一个个体,怎么认识群体呢?

一个至关重要的点:这些私人人工智能背后的数据库。

appstore的国区上,有一个叫glow的应用。

这是一个聊天机器人,据说在年轻人中很流行,也据说它聊得非常好,以至于glow官方得跑出来说:这就是机器人,我们没有人类客服在后台操作。

我下载了下来。

在建立了一个智能体(glow是这样称呼它的机器人的)之后,我简单聊了几句。

然后我就退了出来,并打算删除。

因为我猛然意识到,我注册的时候,可是留下实名制手机号的。

—— 首发 扯氮集 ——

(未完待续)