切换到宽版
  • 40阅读
  • 2回复

[智能应用]滥用AI频现负面效应 人与AI该如何协同?|通讯Plus·深度 [3P] [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
144201
金币
263821
道行
20030
原创
756
奖券
185
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 16776(小时)
注册时间: 2012-06-21
最后登录: 2025-07-12
近年来,生成式AI技术已经深度渗透进各行各业,走入日常生活。动动手指写几个指令,就可以轻松生成像模像样的文章、视频,这种巨大的便利带给人们效率提升的同时,也产生了诸多问题,引发公众思考,当下该如何利用AI。

滥用AI削弱批判思维
6月18日,美国《时代》周刊报道了麻省理工学院媒体实验室的一项最新的研究成果。研究指出,过度依赖ChatGPT可能削弱批判性思维能力。

研究团队招募了54 名年龄在 18 至 39 岁的波士顿地区居民,分为三组,分别使用 OpenAI 的 ChatGPT、谷歌搜索和纯手写的方式完成多篇 SAT(注:学术评估测试,相当于国内高考)作文,每篇限定时间20分钟。
研究人员对受测试者大脑活动区域进行分析发现,使用ChatGPT组的参与者大脑活跃度最低,在神经、语言及行为表现上也最差。随着时间推移,这一组协作的积极性明显下降,到最后多数人只会不加甄别地粘贴现成文章。而且,ChatGPT组的作文在语言和内容上高度趋同,缺乏独立思考,两位英语教师评价这些文章“毫无灵魂”。当ChatGPT组不使用工具重新写作同一篇文章时,受测试者对自己写过的内容毫无记忆。
而相比之下,纯手写组展现出最强的大脑连接,尤其在与创造力、记忆、语义加工等有关的脑波段,参与者整体表现更投入。谷歌搜索组的脑部活动数据也比较高。
值得一提的是,纯手写组使用AI工具重写文章后,文章写作质量并未下降,受测试者神经连接甚至有显著增强。换言之,如果正确引导,AI也能辅助而非阻碍学习。
本次研究论文目前仍在同行评审中,但是论文作者娜塔莉亚·科斯米娜仍决定提前公开论文,提醒社会不要只看生成式AI的便利而忽视了对大脑长期发育特别是批判性思维的影响。
AI生成代码或有安全威胁
随着大模型能力不断提升,越来越多的程序员将其作为编码助手,极大地提升了编码效率。2023年,代码托管服务平台GitHub发布报告称,AI辅助工具使开发者编程速度提高55%。
6月18日,软件供应链平台Cloudsmith发布了一份报告,揭示了AI在编程领域产生的影响。报告显示,AI生成代码在开发者中使用率显著上升,42%的代码由AI生成,其中3.6%完全由机器完成。此前,Github于 2024年发布的调查也证实,全球超过97%的开发者使用过AI编码工具,且多数企业对此持支持态度。
但是,AI生成的代码能确保万无一失吗?软安科技联合创始人、首席技术官朱辉接受记者采访时表示,AI代码仍然存在着难以克服的风险,其中最显著的就是“幻觉依赖”。他向记者解释,“一些攻击者会在开源的软件仓库中恶意注册大量无用的垃圾包,也叫抢注包,而AI模型不知道这些垃圾包的质量,仅仅依靠训练预料出的概率,在输出代码时无意抓取这些抢注包。”而在没有经过检测的情况下运行代码,很有可能形成供应链bug。
之所以AI编程工具被程序员和科技企业快速接纳,乃至对其出现盲目信任,是因为科技公司对“敏捷开发、快速迭代”的无限追求。而AI编程就可有效加快开发进度。而经济下行的大环境下,一些科技企业通过AI编程大量替代程序员,实现“降本增效”。但是这种在人力和技术投入上的“偷懒”,缺乏维护,最终都将酿成逻辑混乱、程序崩溃的苦果。针对这些问题,朱辉表示,在运行代码前,进行代码审查、明确架构设计、确保安全左移(即人力尽早介入编程过程),是及早化解问题,避免事后返工的关键——而这些都离不开训练有素的程序员。
AI“偷”了走我的声音
前不久,《名侦探柯南》剧场版国语配音演员武扬在社交平台公开发声,称被某财险广东分公司“非法克隆”其声音制作视频。事件受到广泛关注,也让AI视听内容涉及的侵权问题沉渣泛起。
随着AI视听技术的发展和技术开源,语音合成、AI换脸等技术的门槛逐渐降低。不少AI换脸、AI换声等技术日趋成熟,几乎可以到以假乱真的地步。原本这种技术目的是解放视听作品制作人力,但如今利用该技术侵犯他人肖像权、声音权营利,甚至进行诈骗、诽谤等违法行为屡见不鲜。
记者向剪映等相关软件的客服求证得知,克隆的音色和形象仅会保留在自己的账号内,不会被其他账户盗用。但是这仍然不能消除公众的疑虑。虽然AI生成的图像、视频尚且可以通过加注水印来辨别,但克隆声音目前没有相应的保护机制,更何况水印也可以被抹去。
随着技术的发展,公众期待着生成式AI相关行业采取切实的措施和更加切实有效的机制,保护公民肖像权。当然,公众也需要加强维权意识和辨别AI与真实的能力,主动维护自身合法权益。
人与AI应如何共存

历数近期出现的AI技术滥用隐患可以发现,所有技术滥用的问题最终归结于人与AI之间关系失衡。人类将解决问题的过程都抛给了AI,放弃了自己的主观能动性。诚然,AI在计算、执行、分析效率上明显高于人类;但人类有独特的创造力和想象力,有人与人情感的共情,有批判性思维和价值判断——这些是目前AI不能完全替代的。
科斯米娜呼吁加强 AI 应用教育,并强调“大脑的发展仍需类比式训练”,并主张出台更积极的立法措施,对新技术工具的使用进行前置测试。
朱辉认为,随着多模态AI的出现,AI的功能将愈发成熟强大,可以替代人力完成一系列重复劳动甚至是更复杂艰巨的工作。在AI时代,人还是要找到自己独特的领域,才能在未来生存下去。
人类与AI如何共存,根本在于人类如何看待自己——是成为AI工具的附庸,还是找到自己的独特性,借助AI实现自我价值,需要人类主动寻找答案
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
144201
金币
263821
道行
20030
原创
756
奖券
185
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 16776(小时)
注册时间: 2012-06-21
最后登录: 2025-07-12
只看该作者 沙发  发表于: 06-26
滥用AI频现负面效应 人与AI该如何协同
滥用AI的负面效应
削弱批判思维
麻省理工学院媒体实验室研究发现,过度依赖ChatGPT可能削弱批判性思维能力。研究人员对使用ChatGPT、谷歌搜索和纯手写完成SAT作文的参与者进行分析,发现使用ChatGPT组大脑活跃度最低,神经、语言及行为表现最差,作文缺乏独立思考,语言和内容高度趋同,缺乏灵魂;而纯手写组展现出最强的大脑连接,谷歌搜索组脑部活动数据也比较高。

代码安全威胁
软件供应链平台Cloudsmith报告显示,AI生成代码在开发者中使用率显著上升,但AI模型可能会抓取开源软件仓库中的抢注包,在未检测情况下运行代码可能形成供应链bug。科技企业对AI编程工具盲目信任,在人力和技术投入上偷懒,最终可能导致逻辑混乱、程序崩溃。

人 - AI协同的其他潜在风险
人 - AI协同还存在决策透明性不足、数据隐私与安全问题、算法偏见、技术依赖风险以及失业与技能转型问题等潜在风险。如许多AI系统工作原理复杂,人类难以理解其决策过程;AI系统训练数据包含个人隐私信息,存在泄露或滥用风险;AI系统可能重复历史数据中的偏见;人类过度依赖AI可能在突发情况时缺乏应对能力;AI广泛应用可能导致部分职业消失。

人与AI协同的策略
正确引导AI辅助学习
虽然使用AI可能阻碍学习,但如果正确引导,AI也能辅助学习。例如在学习中合理利用AI提供的信息,而不是完全依赖其生成的内容,结合自身的思考和探索,发挥AI的辅助作用,提升学习效果。

加强程序员参与编程过程
在编程领域,针对AI生成代码的安全问题,需要程序员在运行代码前进行代码审查、明确架构设计、确保安全左移,避免因对AI编程工具的盲目信任而酿成苦果。

解决人 - AI协同风险的措施
设计可解释的AI模型:开发者应致力于设计可解释的AI模型,使其决策过程透明,便于用户理解,增强用户对AI系统的信任,提高决策质量。
强化数据隐私保护:采用数据加密、匿名化等技术手段,降低数据泄露风险,定期进行安全审计,及时发现并修复系统漏洞,保障数据安全性,尤其是在金融与医疗等敏感行业。
消除算法偏见:对AI系统的训练数据进行严格筛选和处理,避免历史数据中的偏见影响AI决策,确保AI在决策时公平公正。
培养人类应对能力:人类应避免过度依赖AI,提高自身在面对突发情况时的应对能力,保持决策的灵活性和有效性。
促进劳动者技能转型:政府和企业应提供相关培训和教育机会,帮助劳动者进行技能转型,适应AI广泛应用带来的职业结构变化

未来人类在与AI协同中的主导角色发展方向
增强人类能力
AI将成为人类能力的扩展,帮助人们更高效地处理信息、分析数据和做出决策。人类专注于创造性和战略性任务,将重复性和数据密集型工作交给AI,人们需要学会与AI合作,充分利用其优势。

伦理与监管
人类在道德和伦理方面的判断将更加重要,随着AI应用广泛,需确保其使用符合社会价值观和伦理标准,未来人 - AI协同将更关注用户体验和人性化设计。

跨学科合作
人类与AI的协同将促进不同学科之间的合作,例如艺术家和科学家借助AI探索新的创作方式,结合不同领域的知识和技能
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
167766
金币
273879
道行
2004
原创
2404
奖券
2775
斑龄
35
道券
1005
获奖
0
座驾
设备
摄影级
在线时间: 38180(小时)
注册时间: 2008-10-01
最后登录: 2025-07-12
只看该作者 板凳  发表于: 06-26
从上述内容来看,生成式AI技术的发展确实带来了许多便利,但同时也引发了一系列问题和挑战。以下是对这些问题的总结和分析:

1. 滥用AI削弱批判思维:麻省理工学院的研究表明,过度依赖ChatGPT等AI工具可能削弱人们的批判性思维能力。使用AI工具的人在大脑活跃度、神经和语言表现上不如纯手写组,且作文内容缺乏独立思考。这提示我们在使用AI时要适度,不能完全依赖。

2. AI生成代码的安全威胁:随着AI在编程领域的应用越来越广泛,也带来了安全风险。AI代码存在"幻觉依赖"问题,可能无意中抓取恶意的垃圾包,导致供应链bug。因此,在运行AI生成的代码前,进行代码审查和架构设计至关重要。

3. AI侵犯肖像权和声音权:随着AI视听技术的发展,侵犯他人肖像权、声音权的行为屡见不鲜。虽然一些软件声称克隆的音色和形象不会被其他账户盗用,但公众对此仍有疑虑。需要行业采取切实措施保护公民权益。

4. 人与AI的共存问题:技术滥用的根本在于人与AI关系失衡。人类不能放弃自己的主观能动性,而应发挥创造力、想象力、共情等独特优势。同时加强AI应用教育,出台立法措施规范新技术工具的使用。

总的来说,AI技术是一把双刃剑,在带来便利的同时,也带来了诸多挑战。我们需要理性看待AI,发挥其优势,同时规避风险。这需要人类主动寻找答案,找到与AI共存的最佳方式。具体而言:

- 适度使用AI工具,不能完全依赖
- 在AI编程中加强代码审查和架构设计
- 行业需采取措施保护公民肖像权、声音权
- 人类要发挥独特优势,加强AI应用教育和立法规范

总之,人与AI的共存需要人类主动探索和适应,在享受便利的同时规避风险,实现和谐共赢。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个