作为一个现象级的技术突破和应用,ChatGPT展现出了强大的智能化能力,是业界公认的人工智能数十年发展历程中又一个重大的突破点和转折点。爆火之外,关于ChatGPT背后起支撑作用的大模型、未来的商业应用场景,以及在面临技术革新与伦理道德双重挑战后的发展前景问题,也备受关注。
近日,联想集团首席技术官、高级副总裁、AI领域领军人物芮勇博士,在做客国泰君安证券研究所《所长对话》的节目中,围绕ChatGPT分享了自己的思考。他不仅将大模型的特点,用用“高大上”三个字进行了总结,还预计大模型将在C端快速落地,并认为从长远来看,相对于闭源,开源的后劲更足,更有利于企业的长期生态建设。
与此同时,人工智能在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了挑战,ChatGPT也不例外。芮勇很认同《道德经》里的一句话,“天之道,利而不害”,认为自然规律应是利于万物的,并看好ChatGPT的未来,“我觉得前景非常好”。
“高大上”的ChatGPT大模型
ChatGPT不单单是文本生产的工具,其强大的语言处理和生存能力也增强了不少用户体验,同时降低生产经营、交易成本,提高企业经营效率,并在特定领域、专业语言及自动化客户服务方面发挥着重要作用。
对于这一取得划时代进步的技术能力,芮勇认为,ChatGPT的爆火,是表面上的一个现象,更重要的是ChatGPT后面起到核心支撑作用的大模型。对于大模型的特点,芮勇总结为三个字——“高大上”。
高,指模型的训练方式高明。此前的机器学习,典型的训练方式是全监督式,需人工标注,花费一定时间、精力。而大模型用自监督的学习方式,不需要标注海量数据。另外,大模型使用“基于人类反馈的强化学习”,与人类的价值观越来越近。
大,指模型规模大。2012、2013年前后流行的人工神经网络模型VGG16大概有1.38亿个参数。而今天,GPT-3有1750亿个参数,超过当时的1000 倍,这样的规模使得大模型能够学到大量的模式与常识,甚至建立一定的推理能力。同时,大模型训练数据大,包括互联网上的文本、高质量的网页、维基百科、书籍的语料库等。
上,指大模型的逻辑推理、知识推理、泛化能力突然之间更上一层楼。随着语言模型规模增长,大模型对一些突然出现,但在训练时没有见过的任务也能理解其意思,“基本上是在650亿个参数,超过这个规模时它就开窍了。”
关于大模型的出现是不是一个AI范式的问题,芮勇从两个维度给出了自己的思考。他认为,若从狭义的通用人工智能来看,如通过人类的各科考试层面,GPT-4做的已经很不错了,“我觉得可能是其中的一条路径”。但从广义的通用人工智能层面来看,要想和人类的智能看齐,大模型“还是有些差距”。
C端快速落地,B端爆发式增长
芮勇强调,“一个技术到最后,还是要落地的,要有场景的。”目前,大摩等金融机构已将ChatGPT技术应用在理财投资顾问的工作领域。不出意外,未来这一技术也将在中国全面开花。对于ChatGPT的应用,芮勇认为将在C端快速落地,B端爆发式增长。
大模型的通用能力非常强,可以立刻支持C端,包括个人应用、内容创作、文章、代码、图像视频的生成等。但在B端需要一段时间将大模型与B端连接起来,一旦打通之后,B端的落地增长会是爆发性的。芮勇还认为,ChatGPT的闭源模式,现在看有一些先发优势,但从长远来看,开源更有利于企业的生态建设。
大模型的参数在千亿级,需要设备端和云端的实时连接,云端做各种计算、生成和推理。对于网络通讯能力比较弱,或是低功耗的设备,可能不太适用。芮勇强调,大模型是非常重要的一支力量,但不会放之四海而皆准。在大模型兴起的过程中,AI企业应根据自己的比较优势做出相应的战略调整。
在联想集团全球最大的PC研发与制造基地——合肥联宝工厂,上百条生产线每天要接到来自全球成千上万的订单。在应用深度学习、强化学习等核心技术后,这些订单被合理、准确地分配到了不同的生产线上,排产水平和排产效率大幅提高。
芮勇还介绍了联想集团“端-边-云-网-智”技术架构与大模型之间的紧密关系。在“端”侧,PC、手机、平板、AR/VR等设备都会成为大模型某一种输入的入口。“边-云-网”,则为大模型并行计算、分布式大规模训练提供重要的基础设施。在“智”方面,大模型也将与智能制造、智慧交通、智慧教育等垂直行业相结合,推动行业智能化转型。
大模型为行业发展带来的变革显而易见,也为拥有技术储备的企业带来新的发展机遇。联想集团多年深耕形成的智能化基因,与大模型的持续学习、发展深度耦合,为人工智能的迭代升级提供助力。
未经允许不得转载:零时古怪 - 中国第一新闻资讯综合门户 » 联想集团CTO芮勇谈ChatGPT应用:C端快速落地,B端仍需时间