您现在的位置是: 首页 - 行业动态 - 科学技术部ChatGPT决策潜力巨大但伴随风险提升 行业动态

科学技术部ChatGPT决策潜力巨大但伴随风险提升

2025-04-08 行业动态 0人已围观

简介自人工智能应用ChatGPT流行以来,社会对其决策能力的探讨不断拓展,对相关风险的规制也已经开始实践。2023年7月10日,《生成式人工智能服务管理暂行办法》已由国家发改委、教育部、科技部、工信部和国家广电总局等多部门同意并公布,自2023年8月15日起施行。 此法针对生成式人工智能技术提供的文本、图片、音频、视频等内容,对相关服务坚持发展和安全并重、促进创新和依法治理相结合的原则

自人工智能应用ChatGPT流行以来,社会对其决策能力的探讨不断拓展,对相关风险的规制也已经开始实践。2023年7月10日,《生成式人工智能服务管理暂行办法》已由国家发改委、教育部、科技部、工信部和国家广电总局等多部门同意并公布,自2023年8月15日起施行。

此法针对生成式人工智能技术提供的文本、图片、音频、视频等内容,对相关服务坚持发展和安全并重、促进创新和依法治理相结合的原则。这项管理办法旨在规范这一新兴领域,以确保其健康可持续发展,同时保护用户权益。

事实上,针对这类人工智能应用的决策潜力和风险,一些科学研究已经通过实验等方式对部分场景进行了初步预演。近期,一项医学研究就对比了人工智能应用与医生在回答病人问题上的效果,评价结果显示,人工智能应用的回答收获更多好评,在近六百个评价中,超过78%的评价认为其优于医生的回答。

不仅如此,这项研究还发现ChatGPT在同理心方面的好评度远超医生。45%的人评价认为ChatGPT具有较强同理心,而只有不到5%的人认为医生的回答具有同理心或非常有同理心。这反映出ChatGPT在某些方面可能具备更高效率,但同时也存在一定程度的人性缺失。

一些健康领域的研究人员已经开始考虑让大语言模型人工智能应用成为专业医疗设备的一部分。一旦实现这一目标,它们将需要经过更严格的事先审查,以确保准确性、安全性以及临床效果。此外,由于目前的大语言模型并非专门为医学设计,其可能会提供错误信息,因此必须进一步完善以适应医疗环境中的需求。

尽管如此,如果这些技术能够用于辅助医疗行业提高自动化水平,那么它们可能会被接受。如果能用来写出院报告或者其他文档工作,这样的标准化格式正利于技术发挥优势。但是当涉及更多自主决策时,该工具所承担到的责任与影响就会显著增加,并且需要面临更为复杂的情境分析和道德判断。

最近的一项实验模拟了经典道德难题“电车困境”,结果显示,即使是基于算法做出的决定,也无法避免偏见或情绪干扰。这种不一致性的表现意味着,即便是最先进的人工智能系统,也不能保证始终做出一致且正确地道德判断,这对于推动他们参与社会价值判断而言是一个挑战。

米哈尔·科辛斯基(Michal Kosinski)教授曾测试过ChatGPT的心智能力,并发现它可以解决93%的心智任务,比一个九岁儿童稍微差一点。他提到,这种能力预示着未来可以极大地提高人类与AI互动沟通能力,使得AI能够基于心理理论开发更多能力,如同理心或自我意识等。不过,不稳定的行为模式仍然是一大挑战,因为即使是支持救五个人牺牲一个人的观点,它也会使用很多委婉说法,从而导致混淆甚至误导人们实际如何看待这个问题。

最后,由麻省理工学院经济系发布的一个实验结果表明,用ChatGPT这样的生成式AI工具可以显著提高生产力。在聚焦写作任务时,被试者完成任务时间减少40%,产出质量提升18%,其中写作能力较弱者受益尤为明显。这说明如果合适地引入这些工具,可以带来大量效益,但同时也提出了加强风险规制的问题,因为这种改变既带来了机会,也带来了新的挑战。

标签: 数码电器行业动态