看过本文的还看了

相关文献

该作者的其他文献

文献详情 >道德人工智能的可信任性 收藏
道德人工智能的可信任性

道德人工智能的可信任性

作     者:朱国义 吴瑾菁 ZHU Guo-yi;WU Jin-jing

作者机构:江西师范大学马克思主义学院江西南昌330022 

基  金:江西省社会科学基金重点项目(23KS02) 教育部人文社会科学项目思政课教研专项(21SZK10704001) 江西省教育厅研究生创新基金项目(YC2023-B116) 

出 版 物:《科学学研究》 (Studies in Science of Science)

年 卷 期:2025年第43卷第3期

页      码:530-537页

摘      要:可信AI争议不定背景下,道德人工智能同样无法免俗。基于人际信任进路的质疑者,认为道德人工智能不同于人类主体而不可信。但基于AI算法实证研究显示,人们并非厌恶算法,甚至存在着过度信任。人们不关心建议来自何处,而更关心建议是否道德。获得道德的建议,显然有助于帮助人们作出道德的决策。这凸显出道德人工智能可信的关键点,即帮助人们作出符合道德的决策是其可信之维。道德人工智能可信任性在于,它是混合式策略的学习者,能够掌握人类伦理道德;是合格的道德环境监测器,为道德决策提供所需信息;是知识丰富全面的“伦理专家”,为道德决策提供顾问服务;是尊重人类自治的道德促进者,允许多元化道德视角,以启发式提问增强人类的道德能力。

主 题 词:人工智能 道德人工智能 可信任性 

学科分类:01[哲学] 0101[哲学-哲学类] 010105[010105] 

核心收录:

D O I:10.16192/j.cnki.1003-2053.20240226.004

馆 藏 号:203157510...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分