ChatGPT禁供医疗法律理财建议 OpenAI澄清真相
- 登载于 国际
(综合5日电)人工智慧公司OpenAI近日更新使用政策,明确禁止旗下聊天机器人ChatGPT提供医疗、法律与财务建议,强调此举旨在降低风险、加强安全。消息曝光后引发全球热议。不过官方随后澄清,用户仍能如以往般询问健康与法律相关问题,只是ChatGPT将不再扮演专家,而被重新定位为教育工具,而非顾问。
OpenAI日前在官方使用政策中指出,自2025年10月29日起,旗下聊天机器人ChatGPT禁止用于提供需专业执照的建议,包括医疗、法律与财务3大敏感领域。
此外,政策同时禁止使用ChatGPT执行没有人工监督的高风险决策、处理面部/生物识别资料、学术舞弊及其它敏感场景。OpenAI表示,此次政策更新主要是为了使用者安全与责任风险控管。
《Financial Express》分析指出,这项改变是出于法律责任与监管压力的考量。随著聊天机器人被愈来愈多用来查询健康症状、法律权益或投资建议,若未经专业审查就作出解答,可能导致误诊、错误法律行动或财务损失。OpenAI选择划清界线,以避免误用风险。
不过,《商业内幕》报导澄清外界误解。报导指出,社群平台X上出现ChatGPT将全面停止提供健康建议的贴文,引发热议,甚至有用户回覆“那我就没用了”。
但OpenAI发言人强调:“这不是新改变。ChatGPT从来不是专业医疗或法律顾问,但仍是帮助人们理解健康与法律资讯的绝佳工具。”OpenAI健康AI研究主管卡兰辛格哈尔也在X上回应:“模型行为未改变。”
《商业内幕》报导指出,政策的重点在于区分医疗资讯与医疗建议。前者属于教育用途,后者则需持照执业。例如,ChatGPT可说明感冒时的基本照护方式,像是多喝水、开加湿器、服用普拿疼退烧,但不会诊断病因或开立药方。
OpenAI也提醒,ChatGPT与医师、律师间的关系不同,对话内容不受医病或律师─当事人保密特权保护,理论上仍可能被司法机关调阅。此举也呼应公司近月针对心理健康领域增设的安全防线,避免模型误判使用者的情绪或病徵。