切换到宽版
  • 742阅读
  • 1回复

[智能应用]为什么说我们对AI大模型的工作原理知之甚少? [复制链接]

上一主题 下一主题
离线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106178
金币
2447
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20023(小时)
注册时间: 2007-11-29
最后登录: 2024-11-24
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-09-11
— 本帖被 兵马大元帅 执行加亮操作(2023-09-26) —
人工智能语言模型不是人类,但我们使用律师资格考试或美国医学执照考试之类的测试来评估它们,就好像它们是人类一样。

模型在这些考试中往往表现得很好,可能是因为模型的训练数据中有大量此类考试的例子。正如我的同事威尔·道格拉斯·海文(Will Douglas Heaven)在他最近的一篇文章中所写的那样,“有些人被它们展现出的‘人类’智慧所迷惑,另一些人则一点也不相信。”

越来越多的专家呼吁,不要用这些测试来评估人工智能模型,理由是这种行为助长了人工智能的炒作,并造成了“人工智能语言模型的水平比实际水平更高的错觉”。

在威尔的故事中,让我印象深刻的是:我们对人工智能语言模型是如何工作的,以及它们为什么会生成特定的结果知之甚少。利用这些测试,我们试图根据它们的输出来衡量和美化它们的“智能”,但却没有完全了解它们究竟是如何运作的。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
离线bklove1982

UID: 2154384

发帖
827
金币
357
道行
239
原创
0
奖券
1
斑龄
0
道券
0
获奖
0
座驾
东风猛士民用版
设备
VIVO
摄影级
在线时间: 529(小时)
注册时间: 2022-06-13
最后登录: 2024-11-24
只看该作者 沙发  发表于: 2023-09-11
不是大数据合成得出的结果吗,指令也是人类输出给AI的命令,看到结果了,人类竟然会产生否定心理
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个