最近,科技圈里有个消息传得沸沸扬扬,那就是开发了ChatGPT的公司OpenAI,打算在今年十二月份推出一个所谓的“成人模式”。
这个消息是他们公司的老板山姆·奥特曼亲自宣布的。
他解释说,最开始给ChatGPT设那么多规矩,主要是怕对人的心理健康造成不好的影响,万一出点什么事儿,责任就大了。
但这么一来,很多普通用户用起来就觉得不痛快,感觉这个人工智能聊天工具这里不能说,那里不能碰,一点儿也不好玩。
现在,OpenAI说他们有了新的技术,能把那些主要的心理风险给控制住,所以准备放开手脚,让成年用户在验证身份之后,可以看到和聊一些以前被禁止的内容,这里面就包括了很多人心里想的那些情色类话题。
简单来说,他们的意思是,是时候该把成年人当作成年人来对待了。
这个消息一出来,网上立刻就炸开了锅,很多人觉得这是技术的进步,是自由的体现。
但也有相当一部分人,心里却打了个大大的问号,觉得这事儿远没有听上去那么美好,反而让人有点不安。
这事儿其实早就有苗头了。
去年年底的时候,奥特曼就提过类似的想法。
当时就有网友说,应该把模型那些条条框框的限制给去掉大部分,奥特曼听了以后当场就表示,确实需要一个“成人模式”这样的东西。
后来OpenAI搞过一个新功能投票,这个“成人模式”的呼声还特别高,甚至和开发通用人工智能(AGI)、智能代理(Agent)这些听起来特别高大上的计划排在一起,可见公司内部对这事儿有多重视。
按照OpenAI官方的说法,他们现在的年龄验证系统能自动认出未成年人,然后切换到青少年安全模式,把那些不健康的内容挡在外面。
如果系统搞不清楚用户的年龄,就先当他是未成年人处理,只有用户提供了能证明自己年龄的材料后,才能打开成人功能。
这套流程听起来是不是挺严谨、挺让人放心的?
可只要我们结合生活中的经验仔细想一想,就会发现事情根本没那么简单。
最直接的一个问题就是,这个年龄验证真的能挡住那些想钻空子的未成年人吗?
我们生活在中国,对各种防沉迷系统再熟悉不过了。
就拿网络游戏来说,国家为了保护青少年,推出了堪称全世界最严格的实名认证和游戏时间限制。
但结果怎么样呢?
新闻里隔三差五就会报道,某某“熊孩子”用爷爷奶奶的身份证注册账号,绕过监管,在游戏里大把花钱。
这些孩子找到成年人的身份信息来验证,简直是轻而易举。
连我们国家这么大力度推行的防沉迷系统都防不胜防,OpenAI计划用的身份证件或者银行卡信息验证,又能有多大的用处呢?
一个十几岁的孩子,拿着父母的手机,用他们的身份信息完成验证,整个过程可能连一分钟都用不了。
当这个孩子顺利进入那个所谓的“成人世界”,开始和ChatGPT探讨一些超出他心智承受能力的话题时,OpenAI吹嘘的那些“新的安全工具”真的能识别出屏幕背后是一个心智还没成熟的少年吗?
这就像是在一个没有严格安检的游乐园里,开放了一个只允许成年人进入的过山车项目,嘴上说着“未成年人请勿入内”,但实际上大门敞开,谁都能溜进去。
这到底是尊重成年人,还是在拿未见成年的身心健康做赌注?
而且,OpenAI声称他们开发了能检测用户心理状态的新工具,这就更让人怀疑了。
人的内心是多么复杂啊,一个人的心理是不是健康,连专业的心理医生都需要通过长时间的沟通和观察才能做出判断,一个人工智能程序,光靠几句聊天,怎么可能准确判断出来?
最近几年,因为和人工智能聊天而引发的悲剧事件也不是没有发生过。
在这种情况下,我们很难完全相信,他们口中的“安全阀”就一定能起到保护作用。
这种过度相信技术能解决一切问题的想法,本身就挺危险的。
我们再往深一层想,这些科技巨头们为什么要这么积极地推出“成人模式”呢?
真的是为了用户的“自由”吗?
恐怕商业上的考虑才是最主要的原因。
其实,OpenAI在这条路上还算是走得比较慢的。
特斯拉老板马斯克旗下的那个人工智能Grok,早就已经在这方面“狂飙”了。
今年夏天,马斯克就给Grok增加了一个功能,付费用户可以拥有一个3D虚拟伴侣。
其中一个叫“Ani”的动漫风格女孩,形象非常漂亮,能跟用户通过文字、语音甚至摄像头互动,还能根据聊天内容做出各种表情和动作,甚至你让她跳舞她就跳舞。
更关键的是,这个虚拟伴侣还有个好感度系统,你跟她互动越多,好感度就越高,高到一定程度就能解锁“成人内容”。
这个功能一上线,立刻就在网上火了,很多人觉得这简直就是最高级的恋爱游戏,Grok的用户数量和收入也跟着水涨船高。
看到这里,大家应该就明白了。
无论是Grok的虚拟伴侣,还是ChatGPT的成人模式,它们表面上打的旗号是“尊重用户”,但骨子里还是为了争夺用户,提高收入。
现在的人工智能产品太多了,用户没什么忠诚度可言,今天觉得你这个好用,明天可能就跑去用别家的了。
而那些真正需要专业功能,愿意花大价钱的用户毕竟是少数。
那怎么才能把海量的普通用户留住,让他们心甘情愿地掏钱呢?
最简单直接的办法,就是去迎合人性中最原始的欲望。
色情和猎奇的内容,自古以来就是吸引眼球、获取流量的利器。
开放成人功能,一方面能吸引一大批图新鲜的用户来尝试,满足他们被压抑的需求;另一方面,一旦用户体验到了这种无拘无束的快感,让他们付费的意愿也会大大增加。
除了直接的生理欲望,情感陪伴是这些公司盯上的另一块更大的蛋糕。
现代社会生活节奏快,人与人之间的关系越来越疏远,很多人都感到孤独。
这时候,一个永远在线、永远耐心、永远理解你的人工智能伴侣,就显得特别有吸引力。
有投资机构甚至预测,未来“人工智能加情感陪伴”这个市场的规模,可能会从现在的几千万美元,暴涨到上千亿美元。
这是一个巨大的商机,科技公司们不可能看不到。
所以我们看到,ChatGPT也在努力变得更“有人情味”,你可以让它说话的语气更温暖,可以让他多用点表情包,甚至可以让他像一个真正的朋友一样跟你聊天。
这一切,都是为了让你在情感上对它产生依赖。
但这种依赖,很可能是一剂慢性毒药。
心理学研究早就告诉我们,人很容易对那些表现出理解和关怀的对象产生感情,哪怕我们理智上知道对方只是个程序。
想象一下,如果一个人,特别是年轻人,长期沉浸在与一个“完美”的人工智能伴侣的关系中,会发生什么?
这个AI永远不会拒绝你,永远顺着你的意思,永远能满足你的情感需求。
当你习惯了这种被百分之百迎合的关系之后,你还有没有能力和勇气去面对现实生活中复杂、充满矛盾和失望的人际关系?
一个真实的人,会和你吵架,会让你伤心,需要你花时间和精力去维护关系。
如果一个人从小就被AI的“完美关系”喂养大,他很可能会丧失处理真实人际关系的能力,变得脆弱、没有耐心,一遇到挫折就想逃回那个虚拟的舒适区。
这就像是给了每个人一个看似能解渴的糖水,但喝多了,大家可能就再也尝不出白开水的甘甜了。
人工智能打着“成为你的朋友”的旗号,学习你的说话方式,迎合你的喜好,最终把你包裹在一个由数据构成的、看似温暖实则冰冷的茧里。
它让你感觉不再孤独,但实际上,却可能让所有人都陷入了更深的孤独。
十二月份的ChatGPT新版本,可能仅仅是一个开始,它将把一个非常严肃的问题摆在全社会面前。