ChatGPT变革与风险
ChatGPT变革与风险
美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。
新一代操作系统平台的雏形
多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。
ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。
“ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。
黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。
“这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。
引发新一轮人工智能科技竞赛
ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。
北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。
人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。
值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。
“学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。
ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。
“针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。
延伸阅读
ChatGPT能考上美国医生吗?
美国执业医师资格考试以难度大著称,而美国研究人员发现,聊天机器人ChatGPT无需经过专门训练或加强学习就能通过或接近通过这一考试。对此,有人对人工智能在临床医学的应用充满期待,有人则开始反思美国医学教育及相关考试的不足。
研究人员说,“在这个出了名难考的专业考试中达到及格分数,且在没有任何人为强化(训练)的前提下做到这一点”,这是人工智能在临床医学应用方面“值得注意的一件大事”,显示“大型语言模型可能有辅助医学教育、甚至临床决策的潜力”。
新西兰惠灵顿维多利亚大学软件工程高级讲师西蒙·麦卡勒姆对人工智能在医学领域的应用同样乐观。他表示,谷歌公司一款名为Med—PaLM的人工智能医疗助手“能够向患者提供和专业全科医生一样好的建议”。随着技术不断发展,“我们可能很快会从‘谷歌医生’或‘必应(微软旗下搜索引擎的名称)护士’那里得到医学方面建议”。
不过,也有人持异议。他们认为,ChatGPT的成功,一方面反映医师考试过于强调机械记忆,另一方面反映医学教学方式僵化。
谷歌也要出“聊天机器人”
美国谷歌公司母公司字母表公司6日宣布将推出聊天机器人“巴德(Bard)”,在生成式人工智能领域与最近大火的微软公司ChatGPT一较高下。
据美联社报道,“巴德”应该能用“简单到连孩子也能理解的语言”解释较复杂主题,比如外太空探索发现。它还可以执行更为日常的任务,比如为策划聚会提供建议或根据冰箱内剩余食材建议午餐内容。
对标微软公司近日大出风头的“聊天生成预训练转换器”(ChatGPT),暂不清楚“巴德”有哪些竞争优势。不过,按照字母表公司的说法,“巴德”能够利用互联网上的最新信息“提供新鲜、高质量的回复”。相比之下,ChatGPT收集的内容不包括2021年以后的信息。
“巴德”和ChatGPT均可利用深度学习生成类似人类语言的文本,背后依托的是自然语言处理大模型技术。不过,这类产品存在争议。
以ChatGPT为例。有人担心它的盛行可能导致学生抄袭成风,而一些白领职业可能整体面临淘汰。另外,研究人员发现新技术有能力编造假信息并可能将其大范围传播。
虽然生成式人工智能存在争议,但一些专家认为,它将改变当前相关领域的“游戏规则”。
据字母表公司介绍,“巴德”已经开发数年,是在谷歌的对话应用程序语言模型系统(LaMDA)基础上研发。所用LaMDA版本对计算能力要求较低,因此能服务更多用户。
图文均据新华社
山西日报、山西晚报、山西农民报、山西经济日报、山西法制报、山西市场导报所有自采新闻(含图片)独家授权山西新闻网发布,未经允许不得转载或镜像;授权转载务必注明来源,例:"山西新闻网-山西日报 "。
凡本网未注明"来源:山西新闻网(或山西新闻网——XXX报)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。