切换到宽版
  • 14阅读
  • 2回复

[智能应用]数据成了生活的“隐形主人”,你的选择都在被算法“精准计算” [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
151741
金币
336477
道行
20030
原创
758
奖券
224
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 17919(小时)
注册时间: 2012-06-21
最后登录: 2025-08-23
只看楼主 正序阅读 使用道具 楼主  发表于: 12小时前


在这个被代码与数据包裹的时代,算法早已渗透进生活的每个角落:早晨被智能闹钟唤醒时,它已根据睡眠数据调整了叫醒时间;刷手机时,推送的每条内容都经过算法筛选;就连出门打车,路线规划也藏着算法的逻辑。但算法是否只能是冰冷的工具?美国学者、纽约州立大学布法罗分校副教授马克·谢波恩在他所著的《“体贴”的算法:数据如何重塑生活空间》中提出,算法应当注入人文温度,成为理解人类需求的“贴心伙伴”。带着对科技与人文的探寻,《上观新闻》专访了马克·谢波恩教授,探讨算法如何从“高效工具”变为“生活助手”。
冰冷代码与人文温度
上观新闻:在书中,您提出了一个新颖的概念——“‘体贴’的算法”。在大众的认知里,算法往往是基于数据和规则运行的冰冷程序,您是如何想到赋予算法“体贴”这一属性的呢?
马克·谢波恩:这个概念的诞生,源于我对当下科技发展的观察与反思。随着人工智能和大数据技术的普及,算法的确在各个领域发挥着巨大作用,但我们也看到,一些算法引发了隐私泄露、信息茧房等问题。算法再高效,如果不懂人的实际需求,又有什么意义?
我开始思考:能不能有一种算法,它不仅能高效地处理数据,还能考虑到人的情感、需求和价值观,就像人与人之间的体贴关怀一样?在物质现实中,人们“共同生活,共享同一种文化,并面对相同的利害关系”,但在数字空间中,这种共同基础被抽空了,数字世界的“事实”并非来自直接观察,而是通过算法对行为数据的推断生成。比如你在社交媒体上看到的新闻,不是客观世界的全貌,而是算法根据你的浏览记录筛选的结果;商家对你的认知,不是基于真实互动,而是来自消费数据的标签化解读。大数据和机器学习创造了无数“微观公众”——每个群体都困在自己的数据茧房里,用“统计想象”了解他人和自身
上观新闻:这种认知方式的转变,对我们理解“事实”和“真相”有什么影响?
马克·谢波恩:影响是颠覆性的。在现实世界中,真相的主张需要基于共同基础被提出、论证、验证或证伪。比如一场社区讨论,大家基于共同经历交换观点,最终可能达成某种共识。但在数据分割的空间里,传统的公共审议场所消失了。社交媒体算法为了最大化用户参与度,会过滤掉异质观点,只推送你可能认同的内容。久而久之,每个人都活在“真相气泡”里,不同气泡里的人甚至无法就基本事实达成一致。
这就是为什么现在社会分歧越来越大——不是因为事实不存在,而是数据空间让我们失去了共同感知事实的基础。当你看到的新闻、接触的观点都被算法精心筛选过,你对世界的认知就成了数据塑造的产物,而非真实世界的完整映射。
“体贴的算法”就是要在这种分割中,重新建立算法与人类的连接。
上观新闻:但“体贴”是很主观的感受,有人觉得“精准推荐”是体贴,有人觉得“不打扰”才是体贴。算法怎么可能理解这种复杂性?
马克·谢波恩:这确实是核心难题。我们说的“体贴”,不是让算法模仿人类的情感,而是建立“换位思考”的逻辑。空间认识论定义了一个主体与世界的联系、存在于该世界的前提条件,以及在其中行动和运动的界限。我们如何认识周围世界及自身位置,取决于不同文化中主导的空间心智模型,而这些模型又受到工具、设备和表征技术的塑造。
上观新闻:从技术实现角度来说,让算法具备“体贴”的能力是不是难度很大?毕竟,算法是由代码编写而成的,如何将抽象的人文关怀融入其中呢?
马克·谢波恩:这是一个巨大的挑战。传统算法主要关注效率和准确性,而要实现“体贴”,就需要引入新的设计理念和技术方法。这需要跨学科的合作,计算机科学、伦理学、社会学等领域的专家共同努力。计算机科学家负责算法的技术实现,伦理学家从道德层面把控算法的设计方向,确保其符合社会伦理规范,社会学家则提供不同社会群体的行为模式和需求特点等方面的研究成果,为算法融入人文关怀提供理论依据。
比如在数据收集阶段,更加注重对用户隐私的保护,采用加密技术和匿名化处理,确保用户数据的安全性和隐秘性。在算法模型训练中,纳入更多元化的因素,除了业务目标,还考虑用户体验、社会公平等。例如设计推荐系统时,不仅仅根据用户的历史浏览和购买记录,还会考虑用户当下的场景需求、不同地区的文化差异等因素,让用户感受到算法对其个性化需求的关注。
数据权力与生活重塑
上观新闻:现在我们下意识地通过社交软件内容和平台口碑了解他人,依据在线评分选择餐厅,并完全信任在线卫星地图规划的路线。从您的专业视角看,这种对数据的依赖是如何逐步形成的?
马克·谢波恩:要回答此问题,需理解主体性与空间性之间的关系。19世纪的火车站和铁路网促成了新流动性,而数据中心及其网络基础设施则是我们数据驱动文化的促成者。我们开始在构成我们“数据身体”的、去身体化的、去中心化的、分布式的复杂数据中认识自己。
书中我以声誉经济为例:社交媒体活动产生的数据决定了我们的社会价值、服务获取机会和就业前景。从优步司机到爱彼迎房东,声誉成为星级评分经济中的货币形式,社会地位由点赞、关注、分享和转发量衡量。我们塑造算法,而后算法塑造我们
另一例证是如Siri和Alexa等人工智能虚拟助手如何重构公私界限以影响我们的决策。它们通过友好的语音交互让我们习惯求助,却在无形中收集私人数据,这些工具、设备和技术日益由机器学习算法驱动,处理着从各行各业提取的海量数据,久而久之,我们便习惯了用数据定义自己和世界。
上观新闻:您曾说数据提供者拥有控制我们生活的绝对权力。现实生活中有哪些具体事例能体现这种权力的影响?
马克·谢波恩:我们经历的上一次巨变是现代导航工具的诞生,它创造了一个表征空间——人们通过与之关联的图像和符号直接生活其中。如今,算法通过量化位置创造更“好”的地图,但这些地图中嵌入了常不透明的假设与偏见。这些地图对谁更“好”?此处,地图的说服力成为数据掌控者的函数。
声誉经济中的权力关系尤为明显。网约车司机的评分系统完全由平台控制,司机无法申诉低分,一旦评分低于某个阈值就会被封号。有司机反馈,曾因为乘客无理差评被封号,失去唯一的收入来源。但平台掌握着数据解释权,司机根本没有议价能力。同样,外卖骑手的配送时间由算法计算,这个时间不考虑天气、交通意外等真实情况,骑手为了不被罚款只能超速、闯红灯,算法用数据指标将劳动者逼入危险境地。
上观新闻:您在书中提到算法对生活空间的重塑,能否具体谈谈算法在哪些方面彻底改变了我们的生活空间?
马克·谢波恩:算法的影响是弥漫性的,渗透各行各业。数据饱和环境中的人们倾向于无意识地将行为调适至算法规训可识别的模式。书中我展示了涉及生活空间的四个情境:
一是人工栖居:AI虚拟助手利用人设诱使用户分享私密行为信息,服务于数据殖民者。它们进驻家庭空间,将私人对话转化为数据资产,模糊了公共空间与私人空间的界限。
二是假性相关:如无收银员便利店如何成为信息时代的“磨坊”——将购物行为与习惯转化为可营销的数据身体。每一次扫码、每一次停留都被记录分析,购物空间从“自由选择场所”变成“数据收集场域”。
三是从工具到环境:一些科技初创公司将城市转化为统计想象,将城市活动裁剪进带有偏见的分析框架。城市的公园、街道、广场不再只是生活空间,而是被算法标记为“流量热点”“消费潜力区”,空间价值被简化为数据指标。
四是进入错误都市权:在智能城市规划中,居民的活动数据被用于优化交通、能源等系统,但居民却失去了对城市发展的话语权,沦为数据的提供者而非城市的主人。
隐私与公平
上观新闻:在当下,数据隐私问题备受关注。您认为“体贴的算法”在数据隐私保护方面应该如何发挥作用?
马克·谢波恩:这是“体贴的算法”的核心任务之一。首先,要确保数据收集的合法性和透明度,让用户清楚知道自己的数据被收集、用于何处。就像一些正规的App在收集用户数据时,会通过详细的隐私政策说明告知用户哪些数据会被收集,这些数据将被用于改善服务体验、个性化推荐等具体用途,并且获得用户明确的同意后才进行数据收集。
其次,采用先进的加密技术,对用户数据进行加密存储和传输,即使数据被非法获取,也难以被破解。例如地图App统计拥堵路段时,只会记录“某区域有大量车辆停留”,但不会保留具体车辆的行驶轨迹。
另外,建立严格的数据访问权限管理机制,只有经过授权的人员和程序才能访问特定数据,从而有效防止数据泄露风险。
上观新闻:除了数据隐私,社会公平也是算法应用中容易出现问题的地方。比如,一些招聘算法可能存在一些歧视与偏见,您觉得“体贴的算法”如何保障社会公平呢?
马克·谢波恩:这就要求我们在算法设计和训练过程中,充分考虑公平性因素。首先,要避免使用含有偏见的数据进行训练,因为这样会导致算法将偏见“学习”进去。所以,在收集和整理训练数据时,要确保数据来源的广泛性和多样性,涵盖不同性别、种族、地域、教育背景等各类人群的信息,避免数据偏差。
其次,可以引入公平性度量指标,对算法的输出结果进行评估,一旦发现存在不公平现象,及时调整算法参数。比如通过计算不同性别、种族群体在算法筛选结果中的比例差异,与实际人口比例进行对比,如果发现某个群体的入选比例明显低于合理范围,就需要分析算法中可能存在的问题,调整模型参数或优化算法逻辑,以保证公平性。
此外,增加算法的可解释性也很重要,让人们了解算法决策的依据,便于发现和纠正不公平的地方。当算法给出招聘推荐结果时,能够清晰地展示每个候选人被选中或淘汰的原因,是基于学历、工作经验、技能匹配度等哪些具体因素,这样如果存在不公平的决策,就能够及时被察觉和纠正。
上观新闻:但是,不同人对公平的定义可能存在差异。
马克·谢波恩:这确实是一个复杂的问题。目前并没有一个绝对统一的公平标准,因为公平本身具有多元性和相对性。在实际操作中,我们可以参考社会普遍认可的价值观和法律规定,同时广泛征求不同群体的意见,通过民主协商的方式,尽可能达成共识。而且,公平标准也不是一成不变的,要随着社会的发展和人们观念的变化,不断进行调整和完善。随着社会对多元化和包容性的重视程度不断提高,对于公平的理解也在不断深化,算法的公平标准也需要与时俱进,以适应社会发展的需求。
未来展望与人文守护
上观新闻:若我们不立即反思数字虚拟性蕴含的权力,您认为可能产生哪些后果?
马克·谢波恩:数字空间的力量在于其用基础虚构替代基础事实的能力。数据榨取将社交媒体武器化,并取消协商的共同基础。在社交媒体上,人们被限制于个性化小叙事中——这些叙事旨在吸引眼球而非促进共同探索。在网络化媒体和信息系统中,基于共享情感形成的微观公众取代了宏观公众。平台通过人们在数字空间的日常活动收集的个人数据,成为政治操纵的基石。如有些公司利用心理测量微目标定位制造大量小型情感空间——使人们对特定议题持有同样强烈的观点。沟通与协商的桥梁被切断。强烈的共同情感最终演变为物理聚集甚至骚乱。
其影响同样深远:社会层面,我们面临共享现实与集体行动的崩溃。比如在公共政策讨论中,不同群体基于算法推送的信息形成对立观点,甚至对基本事实产生分歧,导致政策制定陷入僵局。
个人层面,我们的生活体验不断被我们无法质询的机器学习系统“更高权威”所否定或覆盖。当健康App告诉你“你的身体状态不符合标准”,当招聘算法将你标记为“低潜力候选人”,当信用评分系统限制你的消费权限,这些算法决策逐渐内化为自我认知的一部分,让你怀疑自己的真实体验和判断能力。更严重的是,个体的隐私权和自主选择权被侵蚀,我们在数据面前变得透明,而算法却对我们保持黑箱状态,这种信息不对称会加剧权力失衡。
上观新闻:面对数据对生活的全面渗透,我们该如何防止生活彻底消解于数据中?
马克·谢波恩:“消解”是个耐人寻味的隐喻。在机器学习驱动的后现代世界,空间、权力与主体性的关系已被重置。
为避免将主体性拱手让给数字模拟,我们需理解当下变革并重拾超越量化的价值。首先,要建立“数据批判性意识”,不将数据结果等同于真相。比如看到“某社区犯罪率高”的数据时,要追问数据是否包含执法偏见、经济因素等背景信息,而非简单给社区贴标签。
其次,要主动争夺“数据主权”,学会管理个人数据。定期清理数据痕迹,拒绝非必要的数据授权,使用隐私保护工具(如加密浏览器、虚拟专用网络),让数据收集者知道用户对隐私的重视。美国加州的“数据删除权”立法就是很好的例子,用户可要求企业删除其个人数据,这从制度上保障了个体对数据的控制权。
最重要的是,我们需要共同应对挑战,为争取一个赋权且持久的集体身份而奋斗——一个能横向延伸、对抗监控空间分裂性垂直分割的身份。比如社区居民联合起来,要求智慧城市项目公开数据收集用途;劳动者组织起来,抗议算法对工作时间的不合理压榨;消费者共同抵制过度收集数据的服务。集体行动能让算法设计者意识到,技术必须服务于人的需求,而非相反。
上观新闻:您希望通过《“体贴”的算法:数据如何重塑生活空间》让读者在数据认知与应对方面获得何种启示?
马克·谢波恩:通过这本书,我旨在根本性地转变读者与数据的关系——从被动接受到批判性地共同书写现实。首先,望读者破除数据中立性神话,认识到每个数据集、算法和传感器皆是人类选择、文化偏见与政治议程的产物,我们必须看到技术的两面性。
其次,敦促从消费转向质疑:理解数据不仅描述世界——更主动建构世界,赋予某些声音(企业、国家)特权,同时抹除其他声音(边缘化社群)。当你看到算法推荐的“热门内容”时,要思考:哪些内容被算法过滤掉了?为什么?当你接受算法的“个性化服务”时,要警惕:这种个性化是否限制了你的视野?是否强化了偏见?
此种意识须点燃伦理责任:要求算法治理透明化,设计以公平而非榨取为核心的系统,并坚决保护模糊性、直觉与不可量化之物得以蓬勃的空间——物理、社会与心理空间。生活中最珍贵的体验,如亲情、创造力、顿悟,往往无法被数据化,我们要为这些“非数据空间”保留生存之地。
最终,本书呼吁人们重拾能动性:克服算法造成的疏离与碎片化力量,创造一个更民主、更公正的数字社会。算法是人类的造物,它的温度由我们定义。只要我们坚持让技术服务于人的需求而非相反,算法就能从冰冷的代码变为体贴的伙伴,数据空间就能与现实生活和谐共生,而非吞噬真实的生活意义




山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线jjybzxw

UID: 551814


发帖
179614
金币
364936
道行
2004
原创
2416
奖券
2935
斑龄
37
道券
1068
获奖
0
座驾
设备
摄影级
在线时间: 40295(小时)
注册时间: 2008-10-01
最后登录: 2025-08-23
只看该作者 板凳  发表于: 11小时前
算法与人文温度的融合

在当今社会,算法已经渗透到我们生活的方方面面,从早晨的智能闹钟到社交媒体上的内容推荐,再到打车软件的路线规划,算法无处不在。然而,算法是否只能是冰冷的工具?美国学者、纽约州立大学布法罗分校副教授马克·谢波恩在他的著作《“体贴”的算法:数据如何重塑生活空间》中提出了一个新颖的概念——“‘体贴’的算法”,认为算法应当注入人文温度,成为理解人类需求的“贴心伙伴”。

算法的冰冷与人文温度的必要性

在大众的认知里,算法往往是基于数据和规则运行的冰冷程序。然而,随着人工智能和大数据技术的普及,算法在各个领域发挥着巨大作用的同时,也引发了一系列问题,如隐私泄露、信息茧房等。这些问题的存在使得我们不得不反思:算法再高效,如果不懂人的实际需求,又有什么意义?

马克·谢波恩提出,“体贴”的算法不仅要高效地处理数据,还要考虑到人的情感、需求和价值观。这种“体贴”并不是让算法模仿人类的情感,而是建立一种“换位思考”的逻辑,让算法能够更好地理解用户的需求。

算法对事实与真相的影响

在现实世界中,真相的主张需要基于共同基础被提出、论证、验证或证伪。然而,在数据分割的空间里,传统的公共审议场所消失了。社交媒体算法为了最大化用户参与度,会过滤掉异质观点,只推送用户可能认同的内容。这种现象导致每个人都活在“真相气泡”里,不同气泡里的人甚至无法就基本事实达成一致。

这种认知方式的转变对社会的影响是颠覆性的。社会分歧越来越大,不是因为事实不存在,而是数据空间让我们失去了共同感知事实的基础。当人们看到的新闻、接触的观点都被算法精心筛选过,他们对世界的认知就成了数据塑造的产物,而非真实世界的完整映射。

实现“体贴”的算法的技术挑战

实现“体贴”的算法是一个巨大的挑战。传统算法主要关注效率和准确性,而要实现“体贴”,就需要引入新的设计理念和技术方法。这需要跨学科的合作,计算机科学、伦理学、社会学等领域的专家共同努力。

例如,在数据收集阶段,更加注重对用户隐私的保护,采用加密技术和匿名化处理,确保用户数据的安全性和隐秘性。在算法模型训练中,纳入更多元化的因素,除了业务目标,还考虑用户体验、社会公平等。设计推荐系统时,不仅仅根据用户的历史浏览和购买记录,还会考虑用户当下的场景需求、不同地区的文化差异等因素,让用户感受到算法对其个性化需求的关注。

数据权力与生活重塑

我们对数据的依赖是如何逐步形成的?这需要理解主体性与空间性之间的关系。19世纪的火车站和铁路网促成了新流动性,而数据中心及其网络基础设施则是我们数据驱动文化的促成者。我们开始在构成我们“数据身体”的、去身体化的、去中心化的、分布式的复杂数据中认识自己。

这种对数据的依赖在声誉经济中尤为明显。社交媒体活动产生的数据决定了我们的社会价值、服务获取机会和就业前景。从优步司机到爱彼迎房东,声誉成为星级评分经济中的货币形式,社会地位由点赞、关注、分享和转发量衡量。我们塑造算法,而后算法塑造我们。

数据隐私与社会公平

在当下,数据隐私问题备受关注。“体贴的算法”在数据隐私保护方面应该发挥作用。首先,要确保数据收集的合法性和透明度,让用户清楚知道自己的数据被收集、用于何处。其次,采用先进的加密技术,对用户数据进行加密存储和传输。此外,建立严格的数据访问权限管理机制,防止数据泄露风险。

社会公平也是算法应用中容易出现问题的地方。例如,一些招聘算法可能存在歧视与偏见。要实现“体贴的算法”,需要在算法设计和训练过程中充分考虑公平性因素。避免使用含有偏见的数据进行训练,并引入公平性度量指标对算法的输出结果进行评估。

未来展望与人文守护

若我们不立即反思数字虚拟性蕴含的权力,可能会产生严重的后果。数字空间的力量在于其用基础虚构替代基础事实的能力。数据榨取将社交媒体武器化,并取消协商的共同基础。在网络化媒体和信息系统中,基于共享情感形成的微观公众取代了宏观公众。

其影响同样深远:社会层面,我们面临共享现实与集体行动的崩溃;个人层面,我们的生活体验不断被我们无法质询的机器学习系统“更高权威”所否定或覆盖。

因此,“体贴的算法”不仅是技术上的挑战,更是对人文关怀和社会责任的呼唤。只有将人文温度注入算法中,才能真正实现科技与人文的和谐共生。

如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
151741
金币
336477
道行
20030
原创
758
奖券
224
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 17919(小时)
注册时间: 2012-06-21
最后登录: 2025-08-23
只看该作者 沙发  发表于: 12小时前
算法渗透:数据时代的生活重塑与潜在挑战
在当今数字化社会,算法已深度融入日常生活的各个场景,从智能闹钟的睡眠数据分析到社交媒体的内容推送,再到出行导航的路线规划,数据驱动的算法正以“隐形主人”的角色影响着人们的决策与认知1。这种渗透既带来了效率提升,也引发了对技术伦理与社会影响的深刻反思。

算法的双面性:效率赋能与认知异化
精准服务的技术红利
算法通过数据分析实现“信息找人”的模式革新,显著提升了服务效率。例如,电商平台依据用户浏览和购买记录推送个性化商品,社交媒体根据兴趣偏好筛选内容,使用户能快速获取符合需求的信息34。在城市治理领域,算法还被应用于地下管网监测等公共服务,如杭州市富阳区通过噪声预警仪和流量监测设备,实现供水管网渗漏爆管的实时预警,将“隐形”隐患转化为“可见”数据2。

如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个