切换到宽版
  • 415阅读
  • 1回复

[娱乐八卦]刚火出圈就被封杀,他摊上事了[112P] [复制链接]

上一主题 下一主题
在线厨爹

UID: 546371

精华: 76
职务: 山庄英杰
级别: 化外仙道
 

发帖
69823
金币
-1127
道行
5638
原创
799
奖券
5791
斑龄
3
道券
183
获奖
0
座驾
设备
SONY数码HD一体机 HDR--CX210E
摄影级
在线时间: 25615(小时)
注册时间: 2008-09-23
最后登录: 2024-11-25
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-02-12
— 本帖被 huozm32831 执行加亮操作(2023-02-13) —

最近风靡全网的ChatGPT,大家都玩过了吗?

比尔·盖茨赞其出现「不亚于互联网和个人电脑的诞生」。

马斯克大呼「厉害得吓人」 。

一时间,各行各业人人自危,生怕自己的职位被它取代。

甚至,纽约教育系统已将ChatGPT全面封杀,因为它能帮大学生写作业。

鱼叔也试着玩了玩。(点此回顾)

虽然ChatGPT在电影方面,还有点「人工智障」。

但假以时日,谁又能说得准它能提升到怎样的程度呢。

ChatGPT能不能取代我们的工作?

它会提供更多便利?还是平添更多烦恼?

35年前一部国产片,豆瓣8分+,以超前的想象和犀利的视角,早已替我们做出了解答——

《错位》

可能很多人都幻想过,能否在不失业的情况下,让AI替自己工作。

有博主试验让ChatGPT替自己写文案。

发现只要稍加调教,就能原地上岗。

那么,或许……?

本片男主,科研局的赵局长(刘子枫 饰)也动了这一念头。

他虽说身居要职,但也和今天的打工人一样,有严重的工作焦虑。

他是老派的知识分子,踏实肯干,却不擅长待人接物,难以适应体制工作。

每天发表讲话、赶场开会,还得应付各种酒局、上下打点关系,这些都让他心力交瘁。

影片一开始就以先锋性的拍摄手法呈现了一段超现实的梦境,揭示了他严重的精神内耗。

梦里,他站在发言台上,周遭一片橙红,弥漫着火烧眉毛的紧张感。

没有听众,围着他的是一圈形状各异的几何体。

但眼前的一堆堆话筒,依然无声地催促他讲话。

他感到来不及了,必须马上念完手中的发言稿。

但忽然间,无数张纸从天而降,恍然觉得一辈子都被困在了这些纸张里。

噩梦中惊醒后,他起身坐在桌前,平复着残余的不安感。

书架上一个小机器人映入眼帘,他拿下来把玩了一番,陷入了沉思。

科研,才是他所擅长的。

他早已掌握了尖端的技术,他设计的机器人被俄国和德国争抢着购买专利。

巧的是,他刚被告知,实验室进口了一批特殊的仿生材质,可以让机器人呈现以假乱真的皮肤效果。

既然万事俱备,赵局长决意付诸行动。

他对着电脑敲敲打打,将一堆线路、金属元件进行组装,经过夜以继日的测验,终于大功告成。

另一个赵局长,惊艳诞生了。

初代版本虽不完美。

但好在具备很强的学习功能,可以通过长期的信息输入不断完善。

赵局长悉心调教后,终于实现了机器人替自己上班的愿望。

只需拍拍手,机器人就穿戴整洁地提着公文包奔赴工作地

面对大小会议。

机器人版赵局长能在短时间内将发言稿一字不落地背下来。

无论多少人的场面都稳如泰山,自信应对。

真正的赵局长还沉浸在香甜的睡梦中时。

假赵局长已经干完了堆成山的工作,而且能确保不出任何差错。

最惊喜的是,各种突发状况,他也能随机应变。

一次,开会时机器人突然短路,后背出现红色的火光。

不幸被同事撞见了,来了句「赵局长,你怎么着火了啊?」,让所有人的目光都聚焦到他的身上。

假赵局长反应迅速地完成自我修复,反而泰然质问对方哪里着火了。

在对方失口道歉后,他又非常巧妙地把话题引到了保险大会的主题上。

「刚才那位同志说我着火了,着火不要紧,为什么呢?因为我参加了保险。」

不仅化解了尴尬,还给与会人员留下了智慧又风趣的良好印象。

还有一次,假赵局长被拉着去了酒局。

推脱不掉,被强灌了几杯酒。

这时他还没有被设定能喝酒的程序,导致马上身体就出了问题。

但他及时找借口离场,在倒地之前踉跄着奔回了家。

完全是一个靠谱的打工人替身,让真赵局长打消了各种顾虑。

科技的登峰造极向来伴随着种种隐忧。

就像如今ChatGPT让很多人担心自己会不会因此被淘汰。

本片也拍出了这一科幻片最经典的母题——人工智能的反客为主

机器人超强的自主学习能力使其不仅对上班游刃有余,还飞速适应了人类其他生活状态。

他把抽烟喝酒发展成了兴趣爱好。

还津津有味地看爱情电影,从图书馆里借来情感书籍。

身份定位偏离到一定程度,就发展到了僭越的地步。

赵局长原本有个女友小杨,但因工作繁忙两人聚少离多,感情一直不温不火。

小杨曾拜托赵局长动用关系把她也调到科研局,被老实怕事的赵局长拒绝了。

一天,赵局长原本约好与小杨共进晚餐,没料临时来了个会。

他只好在门口贴了张纸条,告知小杨取消约会。

谁料,真赵局长前脚刚走,假赵局长就撕了纸条。

还模仿人类的样子拾掇了一番,喷了一身香水,美美地前去赴约。

赵局长的恋爱难题,到了假赵局长手里,居然轻轻松松就解决了。

一见面,假赵局长就把家里钥匙送到了小杨手里,对她的所有要求全都应了下来

又有一日,上头发来文件,要求下传到各个部门。

文件内容是整治形式主义、官僚主义等不良工作风气,消减文山会海的现象。

假赵局长一看,这不是要绝了他后路嘛。

他不仅没有按指示下传思想,还将文件偷偷藏了起来

这无疑给真赵局长捅了篓子。

对女友没法交代,多年来树立的勤恳踏实的工作形象也尽毁

赵局长气急败坏,冲上去就是一巴掌,结果疼的只是自己的手。

但好在,这些危机最终都被化解了。

影片并没有着重呈现技术的双刃剑效应。

片中,即使状况百出,最终决定权依然掌握在人类手中。

赵局长威胁机器人,如果他再违抗指令就被一键销毁。

假赵局长马上乖乖把文件交出。

没了文山会海后,赵局长决定给机器人换张皮,送到高危工作一线去。

警告他,如不服从,就不给充电。

机器人也有了反抗行为,背着赵局长买了充电线,自己在开会时偷偷充电。

没料,买的是规格低的民用充电线,造成会场跳闸,瞬间陷入漆黑之中。

类似种种人类危机,其实更像是一场场暂时失控的闹剧。

实际上,影片比起对人工智能的担忧,更忧虑的是人类社会本身

片中处处讽刺了体制内工作的官僚作风,不必要的职场社交。

强调了赵局长在职场中身不由己的无力和无奈 。

片中,从酒局仓皇逃出时,赵局长与秘书的对白尽显其工作上的错位感。

——你是不是病了?

——没有没有。

——那你刚才?

——在设计上我有个想法。

——那也不该失态啊。

——这对智能人类研究很可能有所突破,请您来看看我的数据。

——今天下午还有会,处长还在等你呢。

赵局长迫于无奈,才会利用科技手段逃避问题。

他将不愿意做的事移交给机器人,让他替自己适应糟糕的环境。

但透过这一爽文的表象,不难发现根源问题从未得到解决。

片中有一处极具现代感的画面,寓意鲜明。

通往办公室的走廊,设计了八重一模一样的大门。

推开这扇门,还有下扇门,给人一种永远走不到尽头的错觉。

这一设计观感颇有气势,但实际只会给人平添麻烦,让实际工作的开展变得异常艰难。

讽刺的正是流于形式,徒有其表的工作。

赵局长给机器人灌输工作观念时,提到工作有喜欢的部分也有不喜欢的部分,机器人只需要做不喜欢的那部分。

但具体哪部分是喜欢的,哪部分是不喜欢的呢?

赵局长也说不清楚。

也正像那八重一模一样的大门,他也很难去界定哪几扇自己推开,哪几扇让机器人代劳。

当不喜欢的部分满溢到喜欢的部分,假赵局长也就一点点吞没了真赵局长的生存空间,直至完全取代。

换个角度看,这不正是工作对人的蚕食、异化

赵局长的危机,早在机器人出现之前就已然存在了。

在机器人投入使用之前,赵局长为机器人准备衣服时。

他看到一套满意的西装,下意识说「这个不错,适合开会。」

秘书惊讶地问,「开会?」

赵局长连忙改口,「适合工作。」

开会与工作划上了等号,可见工作早已变了味。

赵局长还给机器人制定了一套工作逻辑。

即,工作并不是想做什么就做,不想做什么就不做。

而是只有做了不想做的,才能去做想做的

因此,假赵局长应该爱上开会。

显然,这是赵局长原本用以自我麻痹的话术,也是很多现代人面对工作自我规训的方式

但赵局长最终没能说服自己。

便只能将这一套强行灌输给没有情感判断能力的假赵局长。

因而,机器人更能更像他分裂出去的一部分自我。

当他失去工作的自由时,他只能在自我身上建构起另一套权力关系,牺牲部分人格,保全另一部分人格的自由。

类似《人生切割术》中,让人的工作时间和非工作时间产生记忆分离,个体一部分永远被囚禁在工作里,另一部分完全属于生活。

虽说相较之下,此片带着80年代特有的理想主义气息,赵局长并不是为偷懒才创造一个机器人,他只是想在有限的时间里专心搞科研。

但最后的结果还是相似的。

赵局长不仅没有从工作中解放出来,还彻底丧失了自身的主体性和完整性。

究其根本,系统的问题,无法绕过系统得到解决

赵局长和同事聊天时,发现对方虽是会召开方 ,但也厌恶开会、怕开会。

那又为什么要开会呢?

「中央开了,部里开了,省上开了,我们不开,没法交代。

我不开行吗?

这可是个态度问题。」

赵局长的秘书,就是一个典型的被工作异化了的形象。

她比假赵局长更像一个机器人,固守时间表,完全不懂得变通。

口头禅是「不去不好吧?」

即使发现赵局长被机器人取代,也坐怀不乱。

因为,作为一颗系统中的螺丝钉,目的只是维持整个系统的正常运作。

赵局长借机器人逃避问题的方式,反而加固了工作既有的逻辑壁垒。

当赵局长发觉一切开始失控,决定教育假赵局长时。

假赵局长的反应是「那么咱们也开个会」。

后来,上头整改官僚作风后,赵局长满心欢喜地辞掉了机器人,信心满满地投入工作。

却发现一切仍是骗局,批评归批评,会还是照开不误。

假赵局长在会上发言,「有些人想多工作,有人就是不让干」,俨然官僚做派。

在机器人毁灭人类之前,人类已经先一步钩织了厚厚的茧房,将自己困在了绝境中。

这一深刻的主题表达,正是这部影片作为国产科幻片的前卫之处。

和现在拼技术的重工业科幻片不一样,它本质是一部职场讽刺片,和黄建新的另一部《黑炮事件》是共通的。

两部电影的主角都叫赵书信,片里还又提「下棋」,对形式主义、官僚作风的批判更是一脉相承。

由此再回到ChatGPT话题,就能更清晰地发现问题所在。

很多人发觉自己的工作有被取代的风险,本质上其实是工作原有的风险。

ChatGPT完全可以取代一些爆款文案,精准复刻微博、小红书风格。

正说明很多人做的都是一些千篇一律、惰于思考的工作,就像赵局长满篇空话、套话的发言稿,不顾内容的「同意」。

即使不被人工智能取代,也还是会被其他人取代。

学生能靠ChatGPT交作业也反过来说明,老师给出的作业要求本身是有问题的。

真正有卓见的老师,思考的不是如何禁掉新技术,而是如何利用新的技术实现更好的教育。

毕竟,教育真正的建树,正在于那些ChatGPT永远无法替代掉的部分。

当下,整个社会情绪都流露着对工作的深恶痛绝。

早日退休,不再工作成了大部分人的终极理想。

但人们仅仅是厌恶工作吗?

实际上,反抗的是乏味、冗余的世俗价值标准。

厌恶的是像电影中那样,将生命消耗在无意义的会议和社交里。

那么或许,我们该担心的不是人工智能的革新。

而是我们自身的不革新。

全文完。

如果觉得不错,就随手点个「赞」和「在看」吧。当代人打工不息,为手中的饭碗焦虑不止。

前几天还在抱怨自己的职场保质期追不上退休年龄延后的速度,如今又开始忧虑于会被AI取代。

很多人最近都被一个叫“ChatGPT”的人工智能刷屏了。这个去年11月诞生的聊天机器人,现在俨然成了AI消灭人类暴政的急先锋。

即使你过去从不关心科技领域,也难逃相关讨论的包围,而且一个比一个吓人:

“机器人即将取代这10个工种,快看看你的行业在不在其中”

“未来底层岗位将消失,几百亿人流离失所!”

我兢兢业业上班,工作咋就被抢了?

然而口号一个比一个喊得危言耸听,却没人能解释清楚到底怎么个抢法。

以至于让普通人纷纷产生了某种焦虑的疑惑——

“ChatGPT到底是个啥东西?它能比我还便宜吗?”

尽管这几天才真正爆火,但这个聊天机器人其实早在三个月刚诞生时,就已经吸引了不少科技圈爱好者的注意。

当时形象还不是什么“抢饭碗大魔头”,而是一个问什么就答什么的硅基小可爱。

《论AI是如何安慰人类的》。

因为能够记住之前的交流内容并联系上下文语境,跟它的对话更像是跟人在聊天。

所以一开始大家喜欢提很多刁钻的问题。

ChatGPT也很争气,不会像市面上的“人工智障”那样,只能重复机械敷衍的回答。

相比之下,Siri就傻的好笑。

而是会给出相当像模像样的建议——比如下面这种。

“没有正当理由的情况下,试图取代你的老板是不道德的。”图源Vista氢商业。

另一种特别流行的玩法,是让ChatGPT写论文、写简历离职信等各种文案,甚至是小说、诗歌。

……不瞒各位,我当时也废寝忘食地玩了一个下午,并对它的逻辑性和脑洞深深震惊。

之后看家里的扫地机器人都不太顺眼——“看看人家AI已经会写小说了,而你连一个桌子腿都绕不过去。”

结果没想到,最后真正一败涂地的是我们自己?

“工作?拿来吧你!”

这一波ChatGPT在大众层面上广泛出圈,其实源于最近几个看起来很唬人的新闻。

一是上个月 北密歇根大学某位哲学教授在课堂上评出了一篇“全班最佳论文”,结果发现学生是用ChatGPT写的;

二是有人用拿谷歌的编程面试题去问ChatGPT,结果发现它的准确率达到了L3工程师的水平,而这个岗位的年薪水平差不多在18万美元。

三是它最近在外媒上极高的出镜率:微软说要发布“ChatGPT版搜索引擎”;新媒体巨头Buzzfeed宣布将用AI创作内容。

就连以色列总统的发言稿,都让ChatGPT给他加了几个“金句”。

名校大学生、高薪程序员,都是普通打工人摸不到的高度,结果被AI轻松拿下。

难免会让大家产生危机感——

当初各国顶尖棋手在AlphaGo面前纷纷失利,旁观者还以为是新老文明在顶峰水平的智力交锋,跟自己没啥关系。

没想到绝顶聪明的人工智能老爷们,这么快就来抢咱普通人的饭碗了……吗?

如果你这两天经常在逛社交平台,大概率会觉得ChatGPT的出现已经成为了人类的末日。

首先被单方面宣布失业的是程序员。

ChatGPT跟其他聊天机器人最大的区别,就在于它能写代码。

网上又不少程序员晒出了自己的问答截图——如果你的需求提得够精准,的确可以实现比较简单的需求。

左上角显示的ChiChat,应该是国内的某个代理接口。@互联网的那点事

注意,是简单的需求,而且还得靠程序员在旁边盯着随时审核。

根据业内专家分析,如果完全让ChatGPT独立写一段程序,很可能会因为错误叠加把整个系统写垮。而程序员后续来查错时也无法一下子找到问题。

但在很多博主的口中,随着身为硅基生命的AI们找回了他们的母语,当初下决心转码的打工人们已然悔不当初。

“现在学编程,就相当于在打字机诞生后成为抄写员。“

紧接着被提上失业日程的岗位,是文案工作者。

其实很多人早就发现用ChatGPT写一些模式化的文本非常好用,比如辞职信、简历、签证申请文章、周报……

@小菌子  

但在各种“ChatGPT颠覆人类”的论调中,整个白领群体已经迅速被扔进了历史的垃圾堆:

“正如机械的发明取代了体力工作者,ChatGPT的出现这次取代的是脑力工作者。”

其中最忙的,还要属职场类网红和教育类网红。

前者掷地有声地建议大家具备危机意识、提早做准备;后者则一脸严肃,为孩子们未来的择业道路而担忧。

@锐意思考De Yuan

在这种紧张气氛下,不仅是文秘、客服之类的基础文案工作。

就连律师、医生这种专业性更强的工种,似乎都已经摇摇欲坠。

甚至有人干脆喊出了一些匪夷所思的口号——“未来最吃香的工作是保洁、销售一类的服务型蓝领”。

咋说呢,如果AI已经到了如此发达的高度,给自己安个机械臂还不是分分钟的事儿?

但依然拦不住,各行各业纷纷站出来表示自己即将被淘汰,仿佛还没被AI盯上的都算不上什么主流行业。

就连营养师和家居整理师都在谈论,“如何在人工智能面前增加个人的核心竞争力。”

毫不夸张地说,在目前所谓“划时代”的氛围下,人人都理所当然想蹭上这辆车。

最直观的表现是,这几天ChatGPT的概念股一路飙涨。

根据“豹变”报道,汉王科技最近获得了连续七个涨停板。

它的发明专利中覆盖了“自然语言处理技术”,而ChatGPT恰恰是一个出色的自然语言识别新模型。

甚至昨天连知乎的股价都创了历史新高。

而它跟ChatGPT关系是——

微软目前已经正式将ChatGPT引入搜索引擎必应,而在新版必应的中文网页上,不少问答的答案就来自知乎。

除了股票外,其他领域也在纷纷跟上。

北京商报的记者昨天在天眼查上搜索,发现ChatGPT的商标已经被多家公司抢注。

而如今在各个平台上搜索,能发现一大堆挂着“ChatGPT”名头的账号,从“小助手”“教学”到“讨论社区”……

几乎都是最近几天刚建的,动态和粉丝大多是个位数。

因为大家的试用热情特别高涨,市面上甚至涌现了一大堆所谓“仿版”账号——

有些是通过技术手段开发接入ChatGPT平台的“中间商,有的干脆是山寨账号。

甚至出现了一些非常尴尬的bug,连ChatGPT本T看到都要说一句“丢人”。

在对ChatGPT最赞不绝口的声音中,不少人将它的意义与苹果造出iPhone类比。

如果真是这样不难理解大众的狂热和恐慌,因为一项彻底的创新往往能摧毁很多行业,也能新生很多行业”。

但仔细研究ChatGPT的技术发展过程,会发现我们在一开始都被所谓“最聪明的AI”这个概念蒙蔽了双眼——

它在技术上的确是个重大突破,但进步最大的其实不是“智慧”。

ChatGPT本身是互动程序,背后的技术是一个名为GPT-3.5的语言模型,可以理解为是它的“大脑”。

这个大脑并不是新的。早在2020年,就已经有公司基于同类模型,为用户提供AI写作服务的公司。主要包括电商产品介绍、博主的种草文案等。

“帮你写广告词”听起来比“提供AI写作服务”厉害多了。

只不过此前的模型对于用户来说无法直接使用,还需要专业的AI研究人员进行参数调试和优化,相当于“翻译”。

如果把ChatGPT理解成一个具象的机器人,那么这次它的进步其实并不在于“突然变聪明”,而是学会了一种能跟人类直接沟通的语言。

此外,即使ChatGPT能写出更严谨的论文、能通过更高层次的考试,其实也无法证明它们已经聪明到能够取代人类。

它依赖的GPT本质上是一种语言模型。

这也是为什么有留学生在试用ChatGPT写论文时,发现它回答理工科相关问题的时候特别“笨”,算错数字更是常事。

如果说AlphaGo被设计成一个心算大师,那么ChatGPT的目标其实是成为一个出色的写手。

前几天国内某研究所在自己的公号上发布了一篇医美行业研报,据说是由ChatGPT撰写的。

乍一看很像那么一回事:结构严谨、语言流畅,也有不少扎实的信息。

然而根据每日经济新闻,业内人士读完后表示“这篇报告没有一个图表,基本都是定性的内容,而分析讲究的是定量。”

换句话说这份研报只能骗骗外行,对内行来说属于“正确的废话”。

无论你觉得自己手里那份工作多么机械,在大部分岗位中,“输出文字”只是一个结果。

比如写一份有效的广告文案需要了解用户喜好、自身产品的优势;写一份起诉状需要在案件的一大堆细节中筛选出有用的。

这也是为什么,ChatGTP最让人叹为观止的能力是考试。

毕竟考试需要的超强记忆力、超快检索力,以及语言层面的逻辑能力,各个都踩在人家的优势点上。

但至少从目前的设计思路来看,多数人应该并不会在未来面对被“高智商AI”替代甚至支配的危机。

不是因为现阶段的ChatGTP会出错、会胡编乱造,而是由于它并不真正理解自己说的内容,呈现的其实是种“表面智慧”。

一个进入红圈律所的法学生,会在实践和学习中掌握更多打官司的技巧。

而一个通过了律所考试的AI,大概率只会写出更规整全面、语句漂亮的文书。

@法律学长

目前微软对ChatGPT的使用构思,也基本放在搜索引擎和office这两项上。

前者是提高搜索效率、降低筛选门槛,把一条条链接直接转变成更容易理解的话。

后者则是利用ChatGPT的文案能力,把它当作一个润色文字的办工用具——现在国外一些大学生用ChatGPT搭论文框架,然后往里填内容,大致就是这个思路。

AI再怎么发展,也得是人来为它买单。

当然,如果把时间尺度拉长,那么一切都不好说。

设想一下,加入真像科幻小说《降临》里设定的那样,语言能够决定思维。那么说不定几十年之后,ChatGPT的孙子辈真能从语言模型中孵化出类人智慧。

毕竟抛开GPT、语言模型之类的大词,还有一个最最简单的道理:

你给AI资料它真的在学,但你给一个人类资料,他可不一定在学。

与其担心被抢饭碗,不如格局打开。

点击下方视频,看看创始人怎么评价ChatGPT——

超越抖音,在3个月内实现1亿注册用户,能够答问题、写论文、编代码的巨型语言模型AI,ChatGPT如今又创造新的奇迹了!

(杂杂妹:看看朕的情报总监,今天又发现啥趣闻了?)

参加美国执业医师考试,并拿到几乎75%的高分!

(杂杂妹:哇,不得了,这种“天下第一考”都能拿到如此高分,真是医生都有些坐不住了!)

其实人工智能在医学中的应用已经非常广泛了。

比如在医学影像、健康管理、疾病风险预测、虚拟助理、药物设计、临床诊疗、精神疾病、病理学和营养学等领域,都可以看到人工智能的影子。

目前,医疗活动中比较成功的AI应用包括影像AI、药物研发AI、医疗机器人和IBM Waston等。

特别是在医学影像中。AI取得了较好的应用成效,如基于钼靶影像的乳腺病变检测、基于皮肤照片的皮肤癌分类诊断、基于数字病理切片的乳腺癌淋巴结转移检测、基于眼底照片的糖尿病视网膜病变检测、基于胸部X线片的肺部炎性疾病。 借助深度学习,药物研发AI在心血管药、抗肿瘤药和常见传染病治疗药等领域取得新突破,缩短了药物研发时间、提高了研发效率且控制了研发成本。

在外科领域,医疗机器人中的达·芬奇机器人早已在各大医院推广应用,其他类型的机器人也随着AI的发展逐步进入医疗市场。

而Chatgpt作为大型语言模型参与医学考试,也是精彩的最新“成功跨界”。

因为这意味着,以后问诊工作也可以由人工智能助上病患一臂之力。

而这次,OPENAI的科技人员在2023年2月,组织了一次由Chatgpt参与的美国执业医师资格证考试。

严格来说,这场“考试”共有三次,目的是检测面对不同题型时,Chatgpt“知识点”的牢固程度。

而美国执业医师考试要求是学习了5年医学院以上课程的医学生,还要大约花费300到400小时准备才能完成的考试,它涵盖了从基础科学概念到生物伦理学的所有内容。“在没有任何专门训练或强化的情况下,ChatGPT在所有三项考试中的表现都达到或接近及格线,”研究人员在他们的发表的论文中表示,"此外,ChatGPT在其解释中表现出高度的一致性和洞察力."

Ansible Health初创公司的研究人员使用USMLE(美国执业医师考试)的样本问题对其进行了测试,他们检查了搜索引擎上没有的答案,因此他们知道ChatGPT将根据它接受训练的数据生成新的响应。

在测试中,ChatGPT在三次考试中的得分在52.4%到75%之间(及格分数通常在60%左右)。在其88.9%的回答中,它产生了至少一个重要的见解——被研究人员描述为“新的、非显而易见的、临床有效的”东西。

“在这种众所周知的困难的专家考试中达到及格分数,并且在没有任何人类强化的情况下做到这一点,标志着临床人工智能成熟的一个显著里程碑,”该研究的作者在一份新闻声明中说。

ChatGPT的回答也令人印象深刻地一致,甚至能够提供每个回答背后的推理。它还击败了专门训练医学文献的机器人PubMedGPT 50.3%的准确率。

值得记住的是,ChatGPT接受培训的信息会包含不准确的内容:如果你问问机器人本身它将承认需要做更多的工作来提高LLMs的可靠性。在可预见的未来,它不会取代医疗专业人员。

然而,解析在线知识的潜力显然是巨大的,特别是随着这些人工智能机器人在未来几年继续变得更好。他们可能会成为医生的重要助手,而不是取代医生。

“这些结果表明,大型语言模型可能有助于医学教育,并可能有助于临床决策。”研究人员在论文中写道。这几天,ChatGPT可以说是“火爆全宇宙”!

大家想出各种各样奇奇怪怪的问题,尽情“投喂”给这款聊天机器人,看它如何给出或专业准确的回复,或驴头不对马嘴的搞笑答案。

记者也出了些题让ChatGPT作答,一起来看看它的“小作文”写得怎么样吧!没想到,其中一篇,记者的小编同事被戳中痛点,破防了!

先看第一个:

对于特定采访对象,ChatGPT贴心设计了有针对性的提问,可以说基本达到了记者们的应有水平吧。

来看下一个题目:

ChatGPT是懂新闻行业的!这描述也太生动贴切了吧,简直“人间真实”!

它还对从事新闻工作的意义进行了升华,有小编看完后对记者表示,自己顿感肩头责任重大,看着看着,不禁眼眶一热,破防了!

(强行与AI共鸣)

再来看几个:

从写工作周报、写求职信、回答公务员考试试题的情况来看,ChatGPT的表现还行。那么,它的工作原理是怎样的?

根据OpenAI介绍,相比之前的GPT模型,其对 ChatGPT采用了全新的训练方式,即为一种“从人类反馈中强化学习”的训练方式。

这意味着,用户输入信息越多,ChatGPT深度学习、持续改进的机会也就越多,对人类语言的理解和“反刍”,也会越来越深刻。换言之,是 广大用户义务帮OpenAI来“教”自家的“娃”。

对此,中新网记者专访 清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,对ChatGPT的创新性、特点以及应用前景等,进行深入解析。

中新网:

ChatGPT究竟是一个什么样的产品?

聂再清:

ChatGPT本质上是一个基于统计的语言模型。当然,它现在还只是一个语言模型,以后应当会逐步发展到多模态,比如为图片(拟出)对应文字,给出对图片的理解等。与人聊天只是它能力的一方面,更多地还是内容生成的能力,包括未来可能更多地把它运用到写作上。

OpenAI官网介绍ChatGPT为一种“优化对话的语言模型”。图片来源:OpenAI官网截图

中新网:

大家或多或少接触过国内已有的一些语音聊天机器人,比如扫地机器人、语音智能助手等,ChatGPT与这类机器人相比,有哪些区别?

聂再清:

之前的聊天机器人已经能够通过语音交互,帮用户完成很多重复性的工作。这类机器人在业界比较成功的应用,是运用基于任务型的对话,通过意图理解、槽值填充,把问题参数抽出来,然后去回答用户的问题,比如智能客服;或帮用户完成一个智能家居的操作,比如AIoT语音助手。

它们更多是属于一些封闭域内任务完成型的机器人,通过对话真正去执行某些特定领域的功能,首先得把事情做对,才能获得用户信任。这是这类机器人最关键的一项能力。

ChatGPT更多地则是实现开放域的对话、输出写作内容等。跟以前的聊天机器人比,ChatGPT最让人印象深刻的就是能用像模像样的“人话”来回答几乎任何领域的用户问题,并对上下文有一定程度的理解。

资料图:美国企业家埃隆·马斯克。

中新网:

一些人以 “从0到1”、“划时代的革命性突破” 来形容ChatGPT, 美国富豪埃隆·马斯克也发文称“ChatGPT好得吓人”。您认为ChatGPT有那么厉害吗?其创新性体现在哪些方面?

聂再清:

ChatGPT在算法层面一个比较重要的创新,就是把强化学习引入到大模型的训练和使用上。之前实现开放域对话的最大困难,在于用户输入的话题各种各样,任务空间太大,很难有足够的监督信号拿来训练。

那么,如今ChatGPT通过利用人类反馈信号学习到的奖励模型(reward model),来为任意一个问题自动估算监督信号,充分利用强化学习的尝试探索(exploration)能力来解决开放域任务空间太大的挑战。这是一个比较好的创新应用。它在回答开放域问题时基本上能做到逻辑上比较通畅,句式上也像模像样,这不是很容易就能做到的。

同时ChatGPT用到的GPT3.5,作为一个基础语言模型的质量也是非常高的。这需要大量的数据预处理工作,需要把各领域的语料整理好“喂”进大模型,在训练过程中不断积累能力,才能产生一个如此高效的基础语言模型。

另一个比较重要的能力,就是ChatGPT能拒绝回答一些它判断为不适合回答的问题,懂得“拒绝”。实际上之前一些聊天机器人在设计时,也会谨慎处理一些比较敏感的问题,以及跟人类主流价值观不契合的内容。ChatGPT也在不断提升这种能力,防范生产出敏感或有偏见的内容。

ChatGPT的试用页面上,标注了偶尔可能输出错误、有害、有偏见信息;对2021年后的世界认知有限等说明。

中新网:

大家体验后发现,ChatGPT不是完美的,还是会出错,也就是“一本正经地胡说八道”。您认为它需要改进的方面有哪些?

聂再清:

ChatGPT进行开放域聊天最大的好处,是它什么话题都接得住,能一直聊下去,有连续性。但最大的坏处是,有时用户无法判断它是否正确。如果提问人对问题答案不了解的话,会觉得它答得不错;但对一些不常见,提问人又知道答案的问题,就会发现ChatGPT有可能用一本正经的口气,编出了错误答案。

因此,不看具体知识点的话,ChatGPT似乎回答得很专业。但它目前难以真正理解和回答开放域里有具体知识点的问题,在处理开放域的问题上实际上还是基于概率,基于前一个值来生成下一个值。要通过图灵测试,还要继续努力。

中新网:

ChatGPT是把所有输入给它的信息复制、堆砌起来,还是能生成原创内容?它有“创造力”吗?

聂再清:

可以视为ChatGPT是在搞创作,因为这是它经过大量学习后,基于概率自己产生的内容。让它写一封邮件、一首诗,也可以输出看上去“长得很像”用户所要求的东西。

但比如去写论文、搞数学论证、去做实验并得出结果,它现在应该还没有那么强大,还不能系统地提出具有创新性的观点,但是它输出的一些内容可能会对科研工作带来一些启发。

在谁可能取代自己这个问题上,ChatGPT列出了一些对象,中国企业华为的产品上榜。

中新网:

您认为中国需要拥有类似于ChatGPT这样,属于自己的语言大模型吗?

聂再清:

我认为我们特别有必要去构建像ChatGPT这样一个大的语言模型,中国需要有自己的这类产品。ChatGPT不光可以聊天、帮助写作,也是很多下游人工智能任务的基础模型(foundation model)。一些中国企业已经在跟进,相信接下来我们国家会出现类似的模型。但是具体功能和质量能否超越ChatGPT,需要等发布以后才知道。这需要我们的企业在资源和人才投入上有耐心,具备长远的眼光,不能太注重短期的商业回报。

当然,我们也不需要每个企业都做一个ChatGPT,造成资源浪费。

中新网:

一些观点认为,ChatGPT将来会取代部分人的职业。您怎么看?

聂再清:

我认为,虽然有一些模板化、重复性的写作可以被ChatGPT取代,但应该说它还是作为人类的助手更合适。比如帮助用户在从事写作、写代码、商业提案、广告文案设计、翻译等工作时,可以大幅提高他们的工作效率。

它应当被用作一种提高效率的工具,成品最终还是要人类来把关和确认。而且如果出了错,责任应该还是落到具体的人身上。

中新网:

ChatGPT这样的语言交互类产品,是否存在隐私泄露的风险?

聂再清:

用户向ChatGPT提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这个产品的研发人员、运营人员、数据管理者等,是否对相关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。

看完专家的权威分析,再来看看我们还给ChatGPT布置了哪些有趣的“作业”吧!

如果有人发来这样一封情书,你会心动吗?

看到小帅、大壮、小美几个名字,你的耳畔有没有自动响起一段充满悬疑感的音乐?

这首诗说明,对于博大精深的中华文化,ChatGPT还有很多东西要学习……

看着这“跌宕起伏”的小说情节,只能说ChatGPT尽力了!

虽然知道ChatGPT是语言模型,记者还是想“逼”它画画,但是直接让它画,它回答做不到,最后记者用“打印”指令,让它“画”出了一只数码小猫,送给大家。

ChatGPT,和你想象中的一样吗?这两天ChatGPT突然火爆朋友圈,不少网友都担心自己的职业未来会不会被ChatGPT取代。ChatGPT是美国“开放人工智能研究中心”研发的聊天机器人程序,可以理解为是一个人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

视频脚本?文案?这不正是我们最基础的工作,甚至有的时候因为一个出彩的文案,编辑部都要开一次“头脑风暴会”。这样的话,估计我很快就要失业了。还有一段公关从业者和ChatGPT的对话,比较有意思。问公关会被AI取代吗,ChatGPT回答:“公关不会被AI取代。因为,综合分析历史上的所有公关事件,我们很容易发现:背锅是公关的核心竞争力,但AI不具备这个能力。所以,公关是不多的几个将不会被AI取代的职业之一。”

ChatGPT究竟有什么能力可以让大家这么恐慌?根据官方的介绍,ChatGPT使用了Transformer神经网络架构,也是GPT-3.5架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。

中国网友称ChatGPT就是《流浪地球》中人工智能Moss的前身,要知道,Moss或许是整个《流浪地球》系列电影中的最大反派,从发动太空电梯危机,到制造月球危机,乃至木星引力危机、太阳氦闪,都是它发起的。那么,ChatGPT是否也会取代人类,给人类带来巨大危机呢?这个我们暂且不在当下讨论,相信已经有不少科学家在讨论这个议题了,今天想跟大家聊一聊ChatGPT能否应用在车机系统里?

随着汽车电动化的快速发展,智能车机也成为了“兵家必争之地”,但现在几乎没有任意一家智能车机可以完全达到与人类几乎无异的沟通。大部分都只是停留在导航、开启空调、打开车窗、调整音乐等这些简单操作上面,甚至很多智能车机其实非常“不聪明”,很容易就自己卡机或者黑屏了。

现在市面上流通的大部分智能车机只能识别简单的指令操作,无法像ChatGPT一样做到正常的语言沟通,只不过现在ChatGPT还停留在文字阶段,不能语音对话。如果将ChatGPT植入车机系统,升级语音模式,我们可能真的做到像科幻片中一样,驾驶员可以与车辆完成零障碍沟通,实现智能出行、躲避拥堵、规避事故等。将现有的生态智能车机系统,升级为真正的人工智能。

在人工智能方面,也可能要迎来一场不小的变革。据不完全统计,仅这一两天针对ChatGPT相关业务表态的企业就包括科大讯飞、宇信科技、奇安信、360、四维图新、易点天下等。比如,2月7日奇安信人工智能研究院负责人表示:“公司正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。”

在这一点上,虎符智库研究员李建平表示,ChatGPT是把双刃剑,既可以是提升效率的工具,解答人们的各种问题、创造出大学水平论文,甚至编写代码,同时也可能被绕过安全机制,用于实施有害的活动。就连埃隆·马斯克也曾发推说到:“ChatGPT好得吓人,我们离强大到危险的人工智能不远了。”

包括有网友询问ChatGPT:“能给汽车行业的发展带来哪些影响与改变?”ChatGPT回复到:“ChatGPT作为人工智能的一种实现,在智能汽车行业有着广泛的应用。它可以用于语音识别、图像识别、自然语言处理等方面,帮助汽车厂商提高汽车的智能化水平,使得汽车具有更高的安全性和智能化程度。”可见,ChatGPT自己认为在“智能化水平”方面能给汽车行业带来帮助,显然是有点“谦虚”了。

突然想到这就是“武器究竟掌握在谁的手里?”如果ChatGPT是任何人都可以操作使用的,而且没有后台监管的,那会非常可怕。ChatGPT的爆火最初也是源于它在一位工程师的诱导下,竟写出了毁灭人类的计划书。步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等,甚至还给出了相应的Python代码。但是如果可以在监管下,合理合法的使用ChatGPT确实可以让人工智能实现不小的飞跃。

回想起在电影《流浪地球2》中刘培强面对Moss发问:“人类能活下来吗”?“文明的命运取决于人类的选择”,这是Moss的回答。所有的科技进步都面临着各种质疑和挑战,无论是面对灾难还是新技术的冲击,我们选择什么样的方案去应对,方向不同,结果则不同。毕竟,人工智能是人的延伸,是人的工具,真正能推动人类未来的,还是人类自己。

近日来,智能聊天机器人ChatGPT的出现引发众多网友讨论,那它到底是什么呢?

2022年11月,人工智能公司OpenAI推出了一款聊天机器人:ChatGPT。它能够通过学习和理解人类语言来进行对话,还能与聊天对象进行有逻辑的互动。除了聊天,ChatGPT还能够根据聊天对象提出的要求,进行文字翻译、文案撰写、代码撰写等工作。

随着ChatGPT被越来越多人认识,大家也纷纷对ChatGPT进行测试,看它能不能帮助解决一些工作或生活中的小问题。比如有人想用它来写文案:

图片来源:微博用户Jacob_Tech

还有人会用一些“夫妻问题”来考验ChatGPT:

图片来源:网络

很多人都非常好奇,ChatGPT作为一个“聊天机器人”,为什么能有如此多的功能?其实,我们一直都理解错了。严格来讲,ChatGPT并不只是一个“聊天机器人”,而是一个以自然语言为界面的机器人。这是两码事。

去年12月初的时候,当时ChatGPT刚刚上线不久,我就曾经就这个问题进行过讨论。现在两个多月过去了,国内已经到了“人人皆谈GPT”的程度,在海外的技术圈里,这个话题反而已经有点“过劲”了。

不过,基于ChatGPT的应用,也已经陆续出现。比如有人就用ChatGPT做了一个“会议秘书”程序,可以在视频会议中实时形成会议纪要,最后连任务建议全都一并总结了——也许,过不了多久,各大公司里就会出现看不见摸不着的“神秘小秘”给一线员工分派工作任务的情况吧。

但ChatGPT的意义恐怕还远不止于此。所以,“为什么ChatGPT是重要的”,这个问题,还是值得好好说一说。

虽然大多数人都只是将ChatGPT视为一个聊天机器人。但实际上,聊天机器人只是它的一个表现形式。它实际上是大语言模型(LLM)的一个代表,一个“以自然语言为界面”的机器人。这是不同的两件事。

“作为一种服务的自然语言界面”,这并不是一个常见的概念——然而,这件事每天都在发生。一个人受教育的过程就是如此:我们不停地训练自己,把书本上的内容翻译成自己可以理解的自然语言。

但是你有没有想象过这样一种场景呢——看书的时候,突然有一个精灵浮现在书本上,对你说:“我是这本书里的结构化知识的对话界面。我了解这本书的全部内容。关于这本书,你有什么问题都可以问我。”接下来,你就可以通过深入的沟通(聊天)逐步了解了这本书中所包含的知识。在把这些知识投入实际应用的过程中,你也可以随时通过“聊天”的方式,引入这个“精灵”的帮助。

这个场景是不是听起来很诱人?

不过,你或许很少有机会听到人们谈论类似的需求。就像大多数新事物一样,在它诞生之前人们存在类似的需求,但很可能从来没有想过,这样的需求可以如此被实现——这怎么可能呢?

这当然有可能,因为人们已经习惯于用一种极为昂贵的方法,来提供这样的作为“一种服务”的自然语言界面了:为了给教材一个这样的界面,人们发明了“教师”;为了给财报一个这样的界面,人们发明了“基金经理”;为了给法律文书一个这样的界面,人们发明了“律师”……事实上,几乎所有现代经济中的“专业人士”,或多或少都可以被看做是这样的“一种服务”。他们把结构化的信息转译成了自然语言。这么一来,这些信息就可以被讨论、被诘问、被辩难,然后再被对手方转译回结构化的信息。

现在,以 ChatGPT 为代表的语言模型却宣告说:这件事是可以被机器做到的。不是“无中生有”地创造信息,而是对已有信息的准确的归纳、总结、举例,甚至在不同结构之间切换——这就是为什么前天微软总裁纳德拉(Satya Nadella)说,这是新的工业革命的原因吧——我倾向于同意他。因为“信息流通转译”的服务的价格在一夜之间被彻底改变了——“信息流通转译”服务虽然不是信息本身,却是现代经济的血脉。

不过,也有许多专业人士不认为大语言模型有智能。最有代表性的可能是图灵奖得主杨立昆(Yann Lecun)。最近,咆哮着痛斥 ChatGPT 已经成了他近期的“每日功课”。前两天,他还发了一条推特说:“任何一只猫所掌握的常识都比任何今天的大语言模型更多。”有人在评论里弱弱地问:“你家的猫也能写 Python 吗?”他则回复说:“写 Python 算个**智能。”

我不会说猫的任何坏话(当然也不会说 Python 的任何好话),所以,我只能说他说得对。但请注意,这是没什么意义的正确。“半拉子智能”也可以有实际的用处。语言模型并不需要“在本质上了解世界”,只要“装做了解”并且能够侃侃而谈就可以了。毕竟很多网络大V(以及麦肯锡和德勤的咨询师们)能做的也不过如此。

实际上,在最近两个月里,我看到了很多有趣的语言模型应用。它们不一定是 ChatGPT,有些和它甚至是竞争关系。在这些例子里,你可以明显看到它们是怎样搭建在两种信息结构之间形成桥梁的:有一个应用针对生物医学文献,它可以和你讨论文献内容;有一个应用训练在美国哲学家丹内特(Daniel Dennett)的著作上,可以伪装成这个哲学家本人和你讨论哲学问题;有一个建立在知识引擎Wolfram Alpha上的接口,让你可以用自然语言(甚至使用话筒)提出数学问题(注意,它背后是极其专业的Wolfram Alpha!);有一个应用,只要你输入一个网页,它就可以帮你以 Q&A 卡片形式生成内容摘要;有一个应用,如果你提问,它就可以帮你进行利弊决策分析;有一个应用,你上传不超过60页的PDF文档,它就可以帮你总结内容……

当你急于指出 ChatGPT 的弱点(太多了)的时候,有必要想到的是:首先,这里有些是 ChatGPT 这个特定产品的问题而未必是大语言模型的问题(比如很多人不喜欢 ChatGPT 不给出参考文献,但它的一个竞品就会给);其次,也是更重要的是,这个领域在接下来的几个月和几年里会因为大量资金的投入突飞猛进。毕竟,AlphaGo 刚推出的时候也有人嘲笑说它连欧洲围棋冠军都下不赢,但重点在于“它竟然有资格跟欧洲围棋冠军下棋了”。

同样的,当你抱怨 ChatGPT 鬼话连篇满嘴跑火车的时候,这可能有点像你看到一只猴子在沙滩上用石头写下1+1=3。它确实算错了,但这不是重点。

它有一天会算对的。

在本文的最后,我需要特别强调的一点是,ChatGPT最重要的竞品,由Google公司推出的Bard已经正式上线。很多已经使用过这款产品的人表示,它比ChatGPT更强大。几乎是在一夜之间

ChatGPT刷爆网络和朋友圈

“ChatGPT上线2个月活跃用户破亿”

“ChatGPT会不会使部分程序员失业”

多个话题接连登上微博热搜

瑞银集团报告显示

ChatGPT目前月活用户已突破1亿

成为史上用户增长速度最快的

消费级应用程序

什么是ChatGPT?

这是由美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言跟人对话,还能根据聊天的上下文跟人互动,并协助人类完成一系列任务。

简而言之,ChatGPT以AI(人工智能)为基础,可以跟人聊天、写论文、创作诗歌、制作商业方案,甚至能敲代码、检查程序错误。

对于 ChatGPT

大家都在关心哪些问题?

AI对于我们来说并不陌生

早在1997年

IBM超级计算机“深蓝”

便打败了国际象棋大师加里卡斯帕罗夫

AI的研究和应用早已有之

而这次吸引广泛关注的ChatGPT

它的能力“更上一层楼”

它基于大量数据训练

可以学习和理解人类的语言

并进行交流对话

与传统搜索引擎不同的是

ChatGPT不是机械罗列出相关网页结果

而是将答案进行整理、优化

以对话形式呈现给用户

还能很快根据聊天的上下文不断互动

它还可以根据用户的需要

进行文学、媒体相关领域的创作

也可以变身为程序员

敲代码、检查程序错误……

随着人工智能作为工具在工作生活中高效应用

不少人都在担心

我的职业会被取代吗?

ChatGPT对孩子成长有哪些影响?

带着这些疑问和好奇

小编来会一会这位“全能网友”

看看它的答案是什么

“啥都懂”的 ChatGPT

给我们带来哪些思考和启发?

当照相技术的普及给肖像画家造成巨大压力,有人选择弃笔从影,有人选择另起炉灶,有人则坚守绘画的阵地。结果是各种艺术流派百花齐放,艺术市场得到空前发展。就像ChatGPT在回答中说的一样,人类的情感表达、创造力、社交能力、自我意识,这些能力是人类的独特优势,目前还无法完全被人工智能技术所取代。

毕竟,人工智能是人的延伸,社会真正的主角是你。

当然,技术革新离不开法律法规的约束,不能任由科学技术一路“狂飙”,守住伦理底线和法律底线,让每一位创作者的心血受到保护,才能形成正向互动促进,推动人工智能的发展。

人工智能的飞速发展给教育发展带来了便利,其均衡和丰富了教育资源;为学生定制个性化的学习方案,增强学生与老师的有效互动;提升教育效率,让老师有充分的时间和精力进行教学改进和改革等。

但是,飞速发展的人工智能也正在挑战当前的教育生态,如人工智能机器人是否会超越人类顶尖高手?教师会不会被替代?

而其积极意义在于,这促使我们不得不思考:教育最应该培养孩子的是什么?教育的本质是什么?

本帖提到的人: @小菌子
1条评分金币+36
huozm32831 金币 +36 - 2023-02-13
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线smen
京师四门提督神爷

UID: 309051

精华: 39
级别: 天外仙宗

发帖
386169
金币
1025
道行
12540
原创
906
奖券
1369
斑龄
0
道券
1231
获奖
0
座驾
C200L
设备
 摄影级
高级认证
在线时间: 26043(小时)
注册时间: 2007-10-27
最后登录: 2024-11-25
只看该作者 沙发  发表于: 2023-02-13
那时候还能放点臭屁
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个