ChatGPT访问量骤降,AI大模型商业化如何落地?

先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gpthuiyuan


推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top 

随着越来越多公司宣布推出AI大模型,如何让这些模型实现商业化落地,将是下一阶段人们思考的重点。

作者|陈炳欣 

集微网报道 (文/陈炳欣)最近,业界都在关注“ChatGPT访问量骤降”的相关消息。根据第三方监测机构SimilarWeb的最新数据,ChatGPT飙升了数月的流量,从4月开始出现放缓趋势。而6月份,ChatGPT的全球流量首次出现下降,相较于5月减少了9.7%。这一情况背后反映出的是一个重要行业走势——人们正在从初期对AIGC大模型技术的震惊,转移到对商业化落地的冷静观察。随着越来越多公司宣布推出AI大模型,如何让这些模型实现商业化落地,将是下一阶段人们思考的重点。

发展热潮,从百模大战到万模群舞

2023年以来,最热门的话题当属人工智能大模型。随着ChatGPT掀起大模型的发展热潮,现在已有80余个大模型公开发布。在日前召开的“2023全球数字经济大会人工智能高峰论坛”上,360公司创始人周鸿祎甚至预测,未来可能不是百模大战,而是万模群舞。

我国在大模型产业领域,百度、阿里、华为等公司均有较早的布局。2023年ChatGPT掀起浪潮时,百度3月份发布大语言模型“文心一言”,成为我国首个类ChatGPT产品。之后,多家企业发布的大模型争相亮相。截至7月3日,我国10亿级参数规模以上大模型已超80个。这其中既有互联网巨头发布的产品,也有旷视科技、商汤科技、科大讯飞等人工智能公司,还有光年之外、百川智能等初创企业,以及中科院自动化所、上海人工智能实验室等科研院。

随着越来越多大模型产品问世,商业化落地问题也被随之提出。事实上,也只有实现了商业化落地,才能确保大模型产品的持续发展。衔远科技创始人周伯文就指出:“中国企业尚未普遍通过人工智能技术实现大规模营收增长和利润贡献,我们应该面对这个现实。”“大模型最好的应用场景就是帮助企业去做多环节、多部门、多流程的知识管理,把财务、差旅和职级体系全部打通,完成各种资质管理、市场洞察和客户交互,更多的是售前跟客户的互动,为员工提供生产力工具。”

实际上,目前已经有人开始讨论“百模大战”是否存在重复建设的问题了,并预测未来只有少数强者能够胜出,并生存下来。但是,无论未来有多少家企业能够生存,只有能够真正实现应用,为社会带来价值的企业,才能在竞争中获得发展。

应用落地,从通用模型到垂类模型

在谈到大模型的应用落地问题时,业界专家普遍认为大模型将在垂直领域率先取得突破。周鸿祎指出:“有人认为,大模型是不是像之前流行的概念一样,就是一个风口和泡沫?我认为应该不是,而是一场新的工业革命。大模型可以提高每个人、每个组织的劳动生产力,实现通用人工智能对产业的赋能。”

周鸿祎进一步指出,光有大模型还不行,大模型是通才,但缺乏行业深度。ChatGPT刚出现时,人们很惊艳,觉得它什么问题都能回答。但如果是一位行业专家真正提出很具深度的问题,就会发现它的能力是有限的。因为行业、企业内部真正有价值的数据,公开渠道很难获得,这使通用大模型很难满足行业和企业的场景垂直化的专业需求。此外,通用大模型还存在训练成本过高、周期长等问题。因此,垂直类应用模型有望率先实现落地应用。对于行业用户来说,垂直类应用模型应该是行业化、企业化、垂直化、小型化、专有化的产品。

昆仑万维科技股份有限公司CEO方汉则强调,我们不能只把大模型当作Office助手,那样只是会对公文流转和行政系统起到作用,真正对生产起到作用的还是生产数据。应该通过大模型将这些生产数据变为高质量的,可以处理的预训练数据,然后用大模型生成行业模型,再用行业模型推动生产力的进展,这些才是未来发展的重点。

目前,越来越多企业也认知到这一点,在政务、公共安全、金融等领域,垂直类应用模型正在陆续落地。比如百度智能云基于人工智能大模型技术,围绕北京海淀区城市治理创新场景应用,可让固化的操作及展现模式变得可灵活洞察、动态生成。出门问问基于大模型开发的中国工商银行数字员工解决方案,可以改变过去重复性的工作,释放真人员工的工作精力,针对客户需求实现24小时自动化引导和智能答疑,实现可视化、多场景的语音智能交互。

数据安全,从模型基础到评测标准

值得注意的是,人工智能大模型包括垂类模型发展过程中需要涉及大量数据,随之可能产生的数据安全问题不容忽视。清华大学计算机系长聘教授、清华大学人工智能研究院副院长朱军就表示,我们也在探索大模型怎么解决垂直领域的一些问题。私域服务跟公域、通用域不同,问题的聚焦度更为集中,提供的专业深度更强,对数据的要求也更高。大模型之前的人工智能时代,我们已经发现人工智能本身具有所谓的内在安全。AIGC特别是ChatGPT出现以后,安全问题更加严重,如ChatGPT会把很多隐私数据上传,有人利用AIGC技术提升诈骗手段等。

“我们需要从人工智能的基础上尝试解决问题,因为人工智能大部分都体现在算法上,探索从算法原理本身是不是能够克服问题。针对深度学习、深度神经网络,学术界一直在探索第三代人工智能的新范式,希望能够将数据和知识有机融合在一起,发展更加安全可靠的人工智能框架。”


安全评测在提升模型安全中的作用也很重要。中国信息通信研究院云计算与大数据研究所副所长魏凯介绍了大模型标准体系建设及进展情况。在他看来,从大模型各研发环节的合规、可信、稳定、可靠程度建立指标,可以保障大模型可信可控。“当前业界对安全可信的基本维度已经达成共识,包括数据安全、隐私保护、公平性、非歧视等等基本原则。其中难题在于如何将安全可信如何落实到大模型的软件、产品、服务和管理流程制度之中。”魏凯表示。

中国政法大学互联网金融法律研究院院长、中国政法大学教授、博士生导师李爱君则强调了在制度上保障大模型发展中的内容安全。她指出,任何一个技术的发展只是经济发展的一个内生要素,但不是充分的条件,真正的充分条件是制度。法律制度是为人工智能的发展保驾护航,不要认为这是一种约束。任何一个技术的发展只是经济发展的一个内生要素,但不是充分的条件,真正的充分条件是制度。

chatgpt plus(GPT4)代充值

本文链接:https://lechangxia.cc/gpt4/447.html

相关文章