伦理与新兴科技文明:全球专家共议科技时代的道德边界
伦理与新兴科技文明:全球专家共议科技时代的道德边界
伦理与新兴科技文明:全球专家共议科技时代的道德边界5月(yuè)24日,伦理与文明(wénmíng)国际会议(huìyì)在南京召开,会议期间举办多场专场会议,全球专家学者围绕关于伦理的(de)子话题(huàtí)展开研讨。在“伦理与新兴科技文明”专场会议中,来自清华大学、复旦大学、英国圣安德鲁斯大学、山西大学、华东师范大学、英国牛津大学、北京师范大学(běijīngshīfàndàxué)、东南大学、电子科技大学等国内外高校的专家学者,围绕着人工智能兴起衍生出的科技伦理治理等前沿议题展开深度对话,共同探讨技术狂飙时代下的伦理挑战与文明走向。聚焦“人类主体性”“价值对齐(duìqí)”“中国方案”等关键词,为(wèi)科技与伦理的共生提供了多元(duōyuán)视角与理论路径。
人工智能类人化?探寻(tànxún)科技的伦理限度
在专场会议中,复旦大(dà)学哲学学院教授(jiàoshòu)王国(wángguó)豫以“实验伦理学”为方法论,提出了大语言模型(LLMs)的“道德(dàodé)生长模型”。她指出,GPT系列模型从GPT-2到GPT-4的迭代中,其道德判断能力随参数规模增长显著提升,这一现象(xiànxiàng)与杜威的“冲动-习惯-性格”道德发展理论存在相似性。
通过构建“打人”场景的三维度测评问题库(道德(dàodé)(dàodé)认知、困境判断、行为选择),王国豫教授及其研究团队发现,基于人类反馈的强化学习(RLHF)为模型(móxíng)提供了类似人类社会的“道德生长环境”,使(shǐ)其能够通过训练逐步习得“善言”。然而,模型缺乏理性能力与真实情感(qínggǎn),仅能形成“道德习惯”而非(fēi)“道德性格”,导致(dǎozhì)其易受误导或在复杂场景中失效。王国豫强调:“技术对齐的局限性表明,外部监管与社会治理仍是确保AI伦理安全的基石。”
北京师范大学(běijīngshīfàndàxué)哲学学院教授(jiàoshòu)田海平从存在主义(cúnzàizhǔyì)视角切入,揭示了AI“类人化”背后的伦理危机。他指出,当AI在自主决策中(zhōng)无限逼近人类时,可能引发“主体性僭越”——机器重构的“它世界”若脱离人类价值底线,将动摇文明根基。
为此,田海平提出三条伦理禁令:生存性整体性禁令、生存性实例性指令、生存性独特性律令(lǜlìng),即(jí)机器(jīqì)不可完全“代理”人类、机器不可完全“替代”人类欲望、机器不可将人类“对象化”。
华东师范大学付长珍教授则基于中国伦理的实践智慧提出大伦理知识(zhīshí)观,超越心物二元、知行乖离的启蒙怪圈,提出人与(yǔ)AI和谐共生的新兴伦理关系与智能(zhìnéng)文明社会。
科技伦理的中国话语(huàyǔ):人民性与敏捷治理
在 2011 年的一次访谈中,刘慈欣(liúcíxīn)说:“《三体》想说的,就是人类目前的道德体系和(hé)大灾难来临时人类自救行为之间的矛盾(máodùn)。”如果解决这种矛盾?中国人民大学(zhōngguórénmíndàxué)/山西大学的曹刚教授在专场会议中系统阐释了科技伦理的“中国方案”。
曹刚提出了“伦理是科技的(de)(de)导航仪”的理论,并借鉴法学家富勒的“内在(nèizài)-外在道德”框架,提出内在道德应聚焦技术系统的程序正义(zhèngyì),如透明性、稳定性、可持续性;外在道德应关注技术应用的社会价值,如公平性、生态性、风险防控。
曹刚指出,中国科技(kējì)伦理的核心是“人民性”,具体方案是“以人民为中心”——科技需服务(fúwù)于绝大多数人的福祉,并以“群众路线”为治理(zhìlǐ)方针。例如,在算法治理中,通过公众参与打破“技术黑箱”;在数据垄断问题上,以“普惠原则”保障资源公平分配。他特别强调“技术谦逊观”:“面对(miànduì)AI、基因编辑等颠覆性技术,我们需以(xūyǐ)敬畏之心平衡创新(chuàngxīn)与风险,通过敏捷治理实现动态伦理校准。”
共识(gòngshí)与展望:伦理如何为科技导航
与会的专家学者(zhuānjiāxuézhě)们还就多项前沿议题展开了探讨,比如东南大学(dōngnándàxué)王珏教授提出:脑机接口技术正在挑战人类意识、身份与自由意志的基本认知(rènzhī),可能引发深层次的本体异化,并主张建立基于动态主体观的伦理框架(kuāngjià),以回应人机融合时代下身份模糊与道德责任重构的问题。
英国圣安德鲁斯大学伊丽莎白·阿什福德教授以《饥饿的知情刽子手:对人类生存权(shēngcúnquán)的结构性(jiégòuxìng)侵犯》为题,指出当前国际人权法未能赋予生存权与公民政治权利(zhèngzhìquánlì)同等的强制性道德地位。她主张引入“结构性人权侵犯”概念,强调应从正义(zhèngyì)的“应尽之责(zhīzé)”(duty of due care)出发,履行终结结构性剥夺的道德义务。
牛津大学/新加坡国立大学朱利安·萨乌列斯库教授探讨多基因编辑(PGE)技术在降低疾病风险与(yǔ)增强人类性状方面的潜力及其所(suǒ)引发的伦理困境。他表示(biǎoshì),PGE虽可望实现医学进步,但需警惕其可能导致优生学倾向与社会不(bù)平等,应(yīng)以伦理审查与政策监管实现科技发展与人类价值的协调。
电子科技大学雷瑞鹏(léiruìpéng)教授在《合成(héchéng)生物学“扮演上帝”的(de)争论》的演讲中,批判“扮演上帝”作为伦理指控的理论空泛与(yǔ)逻辑模糊,主张应回归后果主义与义务论的规范伦理视角,理性评估合成生物学的发展路径与治理机制。
最后,清华大学教授肖巍在进行伦理与新兴科技文明学术总结时表示,当代讨论文明已经(yǐjīng)离不开科技,而科技也是文明的(de)一种异化(yìhuà)的力量。所以我们必须转换视角与AI共情、共治、共生、共进(gòngjìn),这个过程也必须对AI进行价值引导,要用人类的伦理学实践智慧(zhìhuì)对AI进行知识建构。
正如曹刚教授所言:“科技伦理不是创新的绊脚石,而是文明(wénmíng)存续的导航仪。”在技术加速迭代的今天,这场思想交锋(jiāofēng)为全球(quánqiú)科技文明提供了(le)一份“风险地图”,亦为中国参与全球伦理治理开辟了理论道路。
江苏广电总台(zǒngtái)荔枝新闻中心 记者/王文欢

5月(yuè)24日,伦理与文明(wénmíng)国际会议(huìyì)在南京召开,会议期间举办多场专场会议,全球专家学者围绕关于伦理的(de)子话题(huàtí)展开研讨。在“伦理与新兴科技文明”专场会议中,来自清华大学、复旦大学、英国圣安德鲁斯大学、山西大学、华东师范大学、英国牛津大学、北京师范大学(běijīngshīfàndàxué)、东南大学、电子科技大学等国内外高校的专家学者,围绕着人工智能兴起衍生出的科技伦理治理等前沿议题展开深度对话,共同探讨技术狂飙时代下的伦理挑战与文明走向。聚焦“人类主体性”“价值对齐(duìqí)”“中国方案”等关键词,为(wèi)科技与伦理的共生提供了多元(duōyuán)视角与理论路径。

人工智能类人化?探寻(tànxún)科技的伦理限度
在专场会议中,复旦大(dà)学哲学学院教授(jiàoshòu)王国(wángguó)豫以“实验伦理学”为方法论,提出了大语言模型(LLMs)的“道德(dàodé)生长模型”。她指出,GPT系列模型从GPT-2到GPT-4的迭代中,其道德判断能力随参数规模增长显著提升,这一现象(xiànxiàng)与杜威的“冲动-习惯-性格”道德发展理论存在相似性。

通过构建“打人”场景的三维度测评问题库(道德(dàodé)(dàodé)认知、困境判断、行为选择),王国豫教授及其研究团队发现,基于人类反馈的强化学习(RLHF)为模型(móxíng)提供了类似人类社会的“道德生长环境”,使(shǐ)其能够通过训练逐步习得“善言”。然而,模型缺乏理性能力与真实情感(qínggǎn),仅能形成“道德习惯”而非(fēi)“道德性格”,导致(dǎozhì)其易受误导或在复杂场景中失效。王国豫强调:“技术对齐的局限性表明,外部监管与社会治理仍是确保AI伦理安全的基石。”
北京师范大学(běijīngshīfàndàxué)哲学学院教授(jiàoshòu)田海平从存在主义(cúnzàizhǔyì)视角切入,揭示了AI“类人化”背后的伦理危机。他指出,当AI在自主决策中(zhōng)无限逼近人类时,可能引发“主体性僭越”——机器重构的“它世界”若脱离人类价值底线,将动摇文明根基。

为此,田海平提出三条伦理禁令:生存性整体性禁令、生存性实例性指令、生存性独特性律令(lǜlìng),即(jí)机器(jīqì)不可完全“代理”人类、机器不可完全“替代”人类欲望、机器不可将人类“对象化”。

华东师范大学付长珍教授则基于中国伦理的实践智慧提出大伦理知识(zhīshí)观,超越心物二元、知行乖离的启蒙怪圈,提出人与(yǔ)AI和谐共生的新兴伦理关系与智能(zhìnéng)文明社会。
科技伦理的中国话语(huàyǔ):人民性与敏捷治理
在 2011 年的一次访谈中,刘慈欣(liúcíxīn)说:“《三体》想说的,就是人类目前的道德体系和(hé)大灾难来临时人类自救行为之间的矛盾(máodùn)。”如果解决这种矛盾?中国人民大学(zhōngguórénmíndàxué)/山西大学的曹刚教授在专场会议中系统阐释了科技伦理的“中国方案”。

曹刚提出了“伦理是科技的(de)(de)导航仪”的理论,并借鉴法学家富勒的“内在(nèizài)-外在道德”框架,提出内在道德应聚焦技术系统的程序正义(zhèngyì),如透明性、稳定性、可持续性;外在道德应关注技术应用的社会价值,如公平性、生态性、风险防控。

曹刚指出,中国科技(kējì)伦理的核心是“人民性”,具体方案是“以人民为中心”——科技需服务(fúwù)于绝大多数人的福祉,并以“群众路线”为治理(zhìlǐ)方针。例如,在算法治理中,通过公众参与打破“技术黑箱”;在数据垄断问题上,以“普惠原则”保障资源公平分配。他特别强调“技术谦逊观”:“面对(miànduì)AI、基因编辑等颠覆性技术,我们需以(xūyǐ)敬畏之心平衡创新(chuàngxīn)与风险,通过敏捷治理实现动态伦理校准。”
共识(gòngshí)与展望:伦理如何为科技导航

与会的专家学者(zhuānjiāxuézhě)们还就多项前沿议题展开了探讨,比如东南大学(dōngnándàxué)王珏教授提出:脑机接口技术正在挑战人类意识、身份与自由意志的基本认知(rènzhī),可能引发深层次的本体异化,并主张建立基于动态主体观的伦理框架(kuāngjià),以回应人机融合时代下身份模糊与道德责任重构的问题。

英国圣安德鲁斯大学伊丽莎白·阿什福德教授以《饥饿的知情刽子手:对人类生存权(shēngcúnquán)的结构性(jiégòuxìng)侵犯》为题,指出当前国际人权法未能赋予生存权与公民政治权利(zhèngzhìquánlì)同等的强制性道德地位。她主张引入“结构性人权侵犯”概念,强调应从正义(zhèngyì)的“应尽之责(zhīzé)”(duty of due care)出发,履行终结结构性剥夺的道德义务。

牛津大学/新加坡国立大学朱利安·萨乌列斯库教授探讨多基因编辑(PGE)技术在降低疾病风险与(yǔ)增强人类性状方面的潜力及其所(suǒ)引发的伦理困境。他表示(biǎoshì),PGE虽可望实现医学进步,但需警惕其可能导致优生学倾向与社会不(bù)平等,应(yīng)以伦理审查与政策监管实现科技发展与人类价值的协调。

电子科技大学雷瑞鹏(léiruìpéng)教授在《合成(héchéng)生物学“扮演上帝”的(de)争论》的演讲中,批判“扮演上帝”作为伦理指控的理论空泛与(yǔ)逻辑模糊,主张应回归后果主义与义务论的规范伦理视角,理性评估合成生物学的发展路径与治理机制。

最后,清华大学教授肖巍在进行伦理与新兴科技文明学术总结时表示,当代讨论文明已经(yǐjīng)离不开科技,而科技也是文明的(de)一种异化(yìhuà)的力量。所以我们必须转换视角与AI共情、共治、共生、共进(gòngjìn),这个过程也必须对AI进行价值引导,要用人类的伦理学实践智慧(zhìhuì)对AI进行知识建构。
正如曹刚教授所言:“科技伦理不是创新的绊脚石,而是文明(wénmíng)存续的导航仪。”在技术加速迭代的今天,这场思想交锋(jiāofēng)为全球(quánqiú)科技文明提供了(le)一份“风险地图”,亦为中国参与全球伦理治理开辟了理论道路。
江苏广电总台(zǒngtái)荔枝新闻中心 记者/王文欢

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎