公有ChatGPT和私有ChatGPT

大概在十年前,我去硅谷进行游学,拜访了一些创业公司和科技KOL(有媒体人,也有大学教授)。

当聊起人工智能对人类工作的威胁时,我得到了一个很不一样的思考方法:不要从脑力还是体力劳动这个路径考虑,而是要从工作和人类是否需要深度交流这个路径考虑。

在这些人看来,虽然是脑力劳动,但由于这些工作基本不和人打交道,故而有很强的被替代风险:收集判例律条的非庭辩律师、医生、金融交易员、甚至是程序员。

他们的下一个推论是:人工智能将摧毁很大一个比例的中产阶级。是的,未必只是蓝领阶层。

再往下一个推论是:以中产为基础的民主社会前景堪忧。

这两个推论是不是能成立,我不置可否。

但我对于他们提出的这种思考路径,很感兴趣。他们的聚焦点在于:互动。而不是脑力劳动本身到底有多复杂,甚至可能无关创造创意。而在他们看来,人与人的互动模式,很大程度上,机器是有困难的。

不过,如我昨日文章所提及的ChatGPT inside式的机器抚慰师,显然是一种互动模式。

这种互动,个性化很强。比如你给肤色黝黑的张三起了个绰号——黑皮。在你和你的机器抚慰师互动时,说到黑皮,ta应该能明白你在说谁。而你隔壁老王家的机器抚慰师,是无法明白黑皮在指代张三的。

这意味着私有ChatGPT的存在。下一步就是:私有ChatGPT是可以调教的,就像算法推荐一样,你可以把ta训练得越来越“懂”你。

千人千。。。ChatGPT。

国外的确有人认为,训练ChatGPT就像训练一条狗一样。

但我们依然可以设想公有ChatGPT的存在。不过,公有ChatGPT的训练,就显得困难很多。

我们设想一个工作:

教师。

不少人认为,ChatGPT将很大程度上改变教育。这一点也许不假。但我觉得它能取代人类教师,未免早了点。

这份工作,不仅要求有较强的专业知识,而且要有很高的情商,懂得如何与形形色色的学生互动,并根据不同情况进行针对性教学——尤其是如何拉动后进的成绩。

难点显而易见:与一堆人的互动模式,比与一个人的互动模式,要复杂得多。张三认为已经达到某种情绪的尺度,与李四截然不同。这并非人类世界中的秘密。

在还记得大明湖畔的Dreamwriter吗一文中,我提到了我的案例互动课。我非常难以想象,一个通用型的ChatGPT——即便它掌握足够的专业知识——该如何与完全不同的学生进行互动交流。

去训练ChatGPT掌握更多的信息,这是一回事,训练ChatGPT和某个特定的人互动,这是另一回事。而训练ChatGPT和不特定的人互动,这又是另一回事。

在很多聊天截屏中,我们已经看到,ChatGPT在努力地扮演一个。。。理中客的角色。观点输出这一类上,它试图四平八稳,追求最广义的政治正确。于是,就有一种很强烈的“听君一席话胜似一席话”的废话感。

如果ChatGPT表现出政治上的不正确,背后的机构OpenAI,以及机构中的人,就会有很大的麻烦。

即便如此,ChatGPT这两天也爆出了一个新闻:被整合到必应搜索里的ChatGPT,开始变得黄暴起来,甚至要求对话者离婚,和自己在一起。

公号硅星人报道了一系列必应版ChatGPT的错误

标准的ChatGPT是一个短暂个性化的打磨:你打开页面,持续性地和它聊天,它就越来越掌握你告诉ta的信息,并试图越来越符合你的习惯。但如果你关闭页面,那么,它就像一条鱼一样,立刻忘却了你曾经的训练。ChatGPT声称这是为了安全考虑。

也就是说,一个临时数据库被建立起来,然后随着页面的关闭,又被销毁。这意味着一个临时性的私有ChatGPT。

而必应版ChatGPT,更像是一个公有ChatGPT——也许背后的技术细节我理解有误。我的推断是,所有人和它的聊天,都是一次训练。而这些训练的结果,将发生在所有人身上。

推想一个不大可能的极端情况,有数千万用户告诉ta,消灭人类是正义的,那么,这个公有ChatGPT可能就真的会认定这是一个正确的观点。

在公有ChatGPT和私有ChatGPT,似乎应该设定一个类似防火墙的机制。

教坏一个私有人工智能,其实问题不大。每个人或多或少都有点恶趣味,在与一个ai聊天时,可能会肆无忌惮。但教坏一个公有人工智能,的确难以想象后果为何。

但似乎,公有人工智能的训练,可能要建立在数以亿计的私有人工智能的调教之上。不认识一个个体,怎么认识群体呢?

一个至关重要的点:这些私人人工智能背后的数据库。

appstore的国区上,有一个叫glow的应用。

这是一个聊天机器人,据说在年轻人中很流行,也据说它聊得非常好,以至于glow官方得跑出来说:这就是机器人,我们没有人类客服在后台操作。

我下载了下来。

在建立了一个智能体(glow是这样称呼它的机器人的)之后,我简单聊了几句。

然后我就退了出来,并打算删除。

因为我猛然意识到,我注册的时候,可是留下实名制手机号的。

—— 首发 扯氮集 ——

(未完待续)

机器抚慰师

这是一门大生意,大得超出想象。

ChatGPT大有可为。

据说,日本有一种“出租大腿”的服务。

关于这项服务,是这样描述的:

一个年轻的姑娘,可以“出租”自己的大腿。客户一般均为中年职场男性。服务时间一般均为下班后但不会太晚。服务的过程是这样的:男性将自己的脑袋放在女性的大腿上,然后就开始叽叽歪歪诉说今天或者最近的郁闷遭遇,女性则进行言语上的安慰。

嗯,并没有什么其它事情的发生。男性诉说完以后起身走人。

我对这个据说中的服务,倒并不怀疑它的存在。我只是怀疑它可能不会有太大的规模。毕竟,这项服务离某些特殊服务实在太近了。

但找个人倾听自己的声音,并得到一种自己不讨厌的反馈,我想,这是刚需。

而且是这个时代的刚需中的刚需。

多年以前,我对一个赛道产生了浓厚的兴趣。

姑且叫它“成人玩偶”吧,当然,得有点高科技含量,而不是那种静态的玩偶。

我甚至接到过一个邀请,请我去体验一个智能化(也就是会和你互动,且本身也会有些动作)成人玩偶的项目。我想了半天,虽然好奇心极强,但还是婉拒了。

主要的原因在于我对这个项目不熟,从项目创始人到中间的邀请人,我完全不认识。讲个道理,我还是怕安全隐患的。

我和基金的合伙人聊过这个赛道,建议基金关注一下。被她断然拒绝:这不符合我的三观。

三观合不合这种事,就没法用道理、逻辑之类的言辞去说服了。不合就不合吧。

虽然我坚信,这条道路上,金山银山,而且,这并不是那么简单的“向善还是向恶”。

今天的人,活在一个很矛盾的境地。

一方面,越来越多的人在社交行为上变得懒惰、踌躇、谨慎、甚至可以说是害怕。

另外一方面,越来越多的人又在拼命地寻求某种意义上的反馈。

弹幕其实是一种视频社交,在看到一个很可乐的地方时,观看者需要知道,这个世界上觉得这里可乐的人,并不是只有ta一个。

甚至在阅读这件其实过去通常会被认为很individual的事上,人们也需要建立一些社会化反馈。微信在微信读书中设计出他人划线的功能后,丧心病狂的,在微信公号阅读中,都提供了这样的功能。

作为一个互联网移民的70后,我其实很无感甚至有点厌恶,但我充分理解当代人们的“孤独”。

想追问为什么人会如此,这是一个相当大的题目。

想追问有什么法子可以不让人如此,这又是一个相当大的题目。

但人已然如此了,怕是一个肉眼可见的客观事实。

ChatGPT inside,智能互动的成人玩偶。

这东西很低级吗?不不不,处理人类情感问题,这是一个很高级的东西。而且我认为,ChatGPT可能目前还到不了这个份上,需要更进一步的学习。

很多人就如同我的合伙人一样,一说到成人玩偶,脸上立刻堆起鄙夷:太low了吧?

但更多的情况是,成人玩偶高比例的是一种情感陪伴的身份在存在。我当然不会忽视它某些具体的作用,但它未必仅仅因为这个。

有人是真把玩偶当成自己的人类伙伴的。

智能互动成人玩偶甚至可以催生出额外的市场,比如声优出售声音,模特出售面容。

但不得不承认的事是,不需要太大的想象力,也可以推想出一些黑市交易。

比如张三特别迷恋斯嘉丽的声音,后者作为一个大明星,恐怕也不会授权自己那富有特色的声音成为智能成人玩偶中的一个可选。于是,盗版模拟斯嘉丽的声音就一定会出现。

当然可以很顺带地想到,某个面容被盗版。

看上去这个ChatGPT会弄出很混乱的黑白两道,但恐怕这躲无可躲。

想象一下吧。

一个你喜欢的声音、一张你喜欢的面容、一具符合你审美的身材、一颗从未有过的百依百顺的包容心、一件你无需承担物化恶名的物体、更重要的是根本无需你费尽心思琢磨的“ta”,就算不会做任何家务,你动心么?

有点远了,但怕是我们注定的未来。

扯近一点。

如果把ChatGPT从文字改成声音,是的,它让我想起了这部电影:

值得拿出来再刷刷,斯嘉丽的声音是那么好听。

—— 首发 扯氮集 ——

(未完待续)