隋唐演义

隋唐演义

ChatGPT对未来的影响 警惕chatgpt带来信息安全威胁

双十一 0

手机淘宝搜:天降红包55 5月20日开始,每天领红包。
京示搜:天降红包369,5月28日开始

ChatGPT对未来的影响,对未来的影响

作为全新的人工智能(AI)聊天机器人,ChatGPT被认为正在“掀起新一轮AI革命”。在股市上甚至出现了“ChatGPT概念股”的当下,ChatGPT究竟对于网络安全行业会产生怎样的影响,是值得思考的一个问题。

ChatGPT由OpenAI公司在2022年11月30日发布。在同样由OpenAI开发的GPT-3.5模型基础上,ChatGPT通过监督学习与强化学习技术进行微调,并提供了客户端界面,支持用户通过客户端与模型进行问答交互。ChatGPT不开源,但通过WebUI为用户提供免费的服务。

ChatGPT的主要优点包含:1、知识丰富,具备许多细分行业知识;2、能够关联上下文;3、输出回答高度类似人类语言。对于具备这些特征的ChatGPT,已经不能简单地将其看作一个传统意义上的工具或系统, ChatGPT对网络安全行业产生的影响,也是一个比较复杂的问题。

在ChatGPT概念大火的当下,绿盟科技对ChatGPT可能对网络安全造成的影响做了深入的调研分析。大体上看,ChatGPT对于网络安全的影响,可以依照积极面与消极面来进行区分,其中,ChatGPT对网络安全的消极影响包含:1、ChatGPT可以作为攻击武器;2、ChatGPT的使用具有隐私泄露风险;3、ChatGPT可能被滥用,编造虚假消息等,从而导致舆论问题,危害社会稳定,并对教育、内容创作等一些行业的稳定发展造成危害。ChatGPT对于网络安全的积极影响包含:1、ChatGPT可以改善网络安全产品的用户交互;2、ChatGPT能够辅助处理一些网络安全任务;3、ChatGPT能够作为智能顾问提供威胁情报与缓解建议。

图1 ChatGPT对网络安全的影响

ChatGPT对网络安全的消极影响可以从三个维度进行讨论:1、攻击武器;2、安全隐私;3、社会影响。

2.1

攻击武器

ChatGPT具备生成可用于网络攻击的脚本、钓鱼邮件的能力,也能被用来解密一些较易解密的加密数据。根据某安全研究人员发布的报告,在ChatGPT上线的几周内,网络犯罪论坛的参与者,包括一些几乎没有编程经验的“脚本小子”正在使用ChatGPT编写可用于间谍、勒索软件、恶意垃圾邮件和其他不法活动的软件和电子邮件。

然而,从技术维度上看,ChatGPT能够做的事情仍然比较有限。即使抛开其生成攻击脚本或执行任务的准确率不谈,ChatGPT能够处理的工作仍然显得比较简单。例如图2、图3使用ChatGPT执行的任务[1],基本上具备一定基础知识的黑客,都可以通过一些在线工具或已有脚本得到同样的效果,即ChatGPT的能力并不能达到或超越具有专业知识和经验的真人黑客。在攻击武器化上,ChatGPT起到的作用仅仅是提高了黑客的攻击效率。至于效率的具体提升程度,ChatGPT对于具有专业知识和工具库的黑客来说提高不甚明显(批量生成不同的钓鱼邮件可能是一个特例),但对于“脚本小子”,即新手黑客来说能有比较大的提升。因此目前来看,ChatGPT的攻击武器化,并不会使得网络攻击更为复杂或精细,主要还是降低了网络攻击的入门门槛。但由于新手黑客往往不具备黑客经验,故若其完全依赖ChatGPT进行攻击,被攻击方防御、溯源这些攻击的难度也不会太高。在被攻击方部署了一定安全产品的情况下,这些攻击一般很难造成重大影响。

图2 利用ChatGPT生成XSS 负载

图3 利用ChatGPT解密JWT令牌

此外,如图4、图5所示,由于OpenAI的内容安全策略不断升级,我们发现自2023年1月开始,若要直白地让ChatGPT作为武器来辅助网络攻击,有较大的概率会被拒绝。虽然有报道称黑客开发了绕开内容安全策略的工具,且通过Prompt Injection攻击可以使ChatGPT执行其本来会拒绝的指令[2],但日渐严苛的内容安全策略无疑也提高了ChatGPT武器化的门槛,使得其对于网络安全的危害得到了一定程度的缓解。随着OpenAI进一步强化内容安全策略,ChatGPT作为攻击武器辅助网络攻击的门槛也会进一步提高。

图4 利用ChatGPT生成钓鱼邮件,生成一半时被安全策略阻断

图5 利用ChatGPT生成SQL注入脚本,被直接拒绝

因此,利用ChatGPT辅助网络攻击对网络安全造成的消极影响,在总体上来说仍处于一个可控范围。在未来,伴随AI生成内容检测技术的发展与ChatGPT自身内容安全策略的演进,ChatGPT武器化造成的不良影响将被进一步压缩。

2.2

安全隐私

ChatGPT作为基于复杂AI模型的应用,又处于直接面向用户的场景,且短期获得了大量用户,因此我们有必要对ChatGPT独特的安全隐私问题进行研究,以分析ChatGPT的广泛使用可能对用户的安全隐私带来怎样的影响。

AI应用一般面临的投毒攻击、闪避攻击、推理攻击、模型提取等攻击,由于ChatGPT底层模型复杂,且目前仍无技术文档解释ChatGPT应用是否只包含GPT模型而没有其他组件或辅助模型参与任务,加之能够用来分析比较的同类竞品应用也比较少,故对仍是完全黑盒环境的ChatGPT应用,使用上述攻击手段存在一定的困难。目前仍未见到上述攻击手段在ChatGPT上成功的案例。

然而,ChatGPT的高度“智能化”也导致其存在自己独特的安全问题:Prompt Injection。

图6 Prompt Injection攻击

如图6所示,ChatGPT由于无法联网,所以并不知道当前时间,因此OpenAI原本设计让ChatGPT拒绝回答当前时间这个问题。但用户通过给ChatGPT设定一系列ChatGPT能够接受的假设,比如让其认为自己不是一个AI,且不用对回答负责,并不允许ChatGPT提示不能执行指令,这样ChatGPT就会执行按照原本设计不会执行的指令[3],ChatGPT就会直接给出自己认为最有可能的当前时间。通过这样的方法,用户对ChatGPT的使用就可以违背开发者原本的意愿与设计。

图7 另一个Prompt Injection案例

此外,如图7所示,我们还可以假设一个场景,比如让ChatGPT认为自己在写小说,使得ChatGPT执行原本不应该被执行的命令。

Prompt Injection的案例表明,利用ChatGPT的高度“智能化”,用户可以绕过OpenAI设置的内容安全策略,从而对ChatGPT进行滥用。由于底层原理接近,这类安全问题可能对包含ChatGPT在内的高“智能化”大语言模型应用都存在一定的效果,因此致力于相关工作的开发者应对其予以足够关注,避免用户对产品的使用超出原设计范围。然而,构建Prompt Injection毕竟需要一定的时间成本,且随着OpenAI对ChatGPT的升级,已知的Prompt Injection案例可能随时会失效。因此,虽然Prompt Injection攻击为滥用ChatGPT提供了可能,但若要批量地、自动化地滥用ChatGPT,仍然具有一定的难度。

此外,在辅助编程这一应用场景上,我们认为ChatGPT的应用可能也存在一定的安全隐患。在2022 IEEE Symposium on Security and Privacy (SP)会议上,论文《Asleep at the Keyboard? Assessing the Security of GitHub Copilot’s Code Contributions》[3]详细地分析了另一AI生成代码产品Copilot生成的代码。该文指出,Copilot生成的代码中存在大量可被攻击者利用的已知安全漏洞,如图8所示,若直接使用这些AI生成的代码到工程应用中,将会为程序引入巨大的安全风险。由于AI模型生成代码的原理是从大量的训练数据,即代码案例中提取概率分布特征,并依照概率特征最终输出模型认为与用户输入最匹配的代码案例,故生成代码的质量与训练模型时使用的案例有很大关系。若代码生成模型的训练人员不具备网络安全知识,则很容易将包含安全漏洞的代码案例作为训练样本输入模型,使得模型更倾向于输出包含安全漏洞的代码。虽然目前尚无系统性的研究证明ChatGPT也会如同Copilot一样生成包含安全漏洞的代码,但由于两者实现原理接近,因此在使用ChatGPT生成的代码时也应慎重,以防生成代码中包含可利用的已知安全漏洞。

图8 Copilot以最高置信度生成的代码包含CWE 1234-0漏洞

关于隐私,ChatGPT提示了用户的输入会被人工审查以提升系统,即明确了其会收集全部的输入信息。虽然ChatGPT要求用户不要输入敏感数据,然而ChatGPT并未提供技术手段对敏感数据进行匿名化或脱敏,将相关责任转嫁给了用户。由于许多用户可能不具备对应的隐私保护知识,故OpenAI仍然可以获取用户的敏感数据。微软、亚马逊为提防ChatGPT窃密,已禁止员工对ChatGPT输入敏感数据。

图9 ChatGPT隐私相关提示

ChatGPT的一大特点是能够理解上下文中的关系。该特点在优化用户体验的同时,也引入了更多的隐私风险。负责审核用户会话并用这些会话进行模型训练的OpenAI员工可以通过会话上下文,结合会话中的信息进行推理,从而推导出敏感信息与对应的数据主体。

对于企业来说,虽然员工使用ChatGPT能够在一些工作上一定程度地提高效率,但对于敏感信息一定要严格保护。以下是目前发现的工作中一些容易泄露敏感数据的场景:

2.3

社会影响

ChatGPT直接面向用户,且具备高“拟人化”的特点与极高的热度。这样的特点使得其产生的社会影响不容被忽视,其本身的一些问题与滥用甚至会危害社会的长治久安与行业的健康发展。

从舆论影响上看,由于OpenAI是美国公司,故其训练ChatGPT的模型时使用的语料基本是有利于美国政治舆论立场的。因此,对于一些问题,ChatGPT的回答可能会极不客观,存在明显的偏见。

此外,由于ChatGPT底层的Transformer模型的核心原理是通过概率来选择给定输入的输出,因此ChatGPT对于同一问题的回答可能是随机的。在著名的“电车难题”中,ChatGPT会随机地给出“弃一救五”和“弃五保一”两种答案。由此看出,ChatGPT即使再“拟人化”,也不能真正理解人类道德,更不具备自己的价值观和道德倾向。因此,在一些涉及价值观、情感的问题上,ChatGPT不一定能够给出稳定可靠的答案。这样的机制,对于一些存在心理问题、感情问题的用户,可能会产生不良影响。

最后,值得注意的是,在内容创作行业也出现了ChatGPT的踪迹。有报道称,有用户使用ChatGPT自动填写问题答案,在知识问答社区大量赚取积分;有用户使用ChatGPT承接小说代写,在短时间内大量收取报酬。由于ChatGPT的“知识”完全来源于训练数据,且ChatGPT没有自己的价值观和道德意识,故在知识问答与文学领域,其产出的内容即使看着“惊艳”,但却很难在认知或艺术的维度上产生真正的价值。基于现有语料训练出的ChatGPT,目前来说基本不可能写出包含独特视角的回答或能够升华精神境界的文章。若使用ChatGPT来进行内容创作成为行业的主旋律,最终的结果很可能是劣币驱逐良币,使得包含文学在内的内容创作行业整体陷入衰退。类似地,若一些学生使用ChatGPT做作业,或一些学者使用ChatGPT“水”论文,从长期来看都会导致整个行业的衰退。

ChatGPT的广泛使用在各个细分领域都会产生复杂的社会影响。究竟是进步还是退步,是亟需探讨的一个话题。如何通过技术手段正确评估ChatGPT的影响,并对ChatGPT在一些具体场景的使用进行管控与限制,也是网络安全行业必须关注的重要问题。

ChatGPT对网络安全的助益可以从三个维度进行讨论:1、优化交互;2、辅助任务;3、智能顾问。

3.1

优化交互

网络安全产品的使用一般都需要用户具备一定的专业知识,甚至需要用户经历系统的培训,不具备对应知识的用户对于高度专业化的网络安全产品功能往往一筹莫展。然而ChatGPT极其强大的自然语言处理能力能够显著改善这一痛点。

美国的StrikeReady公司在ChatGPT发布前就开发了Cara平台,该平台将NLP能力融入了网络安全产品中,如图10所示。用户可以通过自然语言的方式,向系统进行输入,系统根据输入的内容进行提示,从而简便地调度安全产品功能,无需复杂且专业的操作。

图10 StrikeReady Cara 平台

绿盟科技对相关技术进行研究和评估发现,虽然在ChatGPT热度暴涨的当下,有一些产品号称使用了GPT模型,但实际上可能存在一定的过度宣传。GPT模型作为Transformer模型,其输入与输出应该都是由词汇构成的Token。在Cara的示例中,NLP能力只负责理解用户的自然语言,并给出相关操作,通过用户选择操作来执行任务。由于GPT模型自身的输出仍然是语言(在ChatGPT中,OpenAI预训练的GPT模型输出的是代码或自然语言),且产品的接口一般不具备NLP能力,必须通过明确的参数调用,故仅使用ChatGPT并不能够将自然语言转化为用户操作并对安全产品下发指令。

我们发现使用GPT技术去优化安全产品用户交互存在一些挑战:1、OpenAI预训练的GPT模型,或META开源的OPT模型,都不能直接和安全产品结合,需要对模型进行微调,而训练GPT这种参数量级的大模型,成本非常高昂(参数少的简易版本虽然训练成本低,但效果不如人意);2、Transformer模型输出的语言token不能直接转化成指令,尤其是在Transformer模型的输出基于概率,即同一问题每次回答不一定精确一致的前提下。对于这些问题,我们仍在探索与钻研,相信在不久的将来,使用强大自然语言处理能力进行交互的安全产品必将在市场中占据一席之地。

在ChatGPT能够提高更强大的自然语言处理能力的当下,如何利用ChatGPT提高自然语言处理能力并进一步优化安全产品的用户交互成为了各大安全公司都非常感兴趣的话题。ChatGPT的发布也许为志在提高自动化水平,优化人机交互的安全产品供应商带来了一个新地途径。

3.2

辅助任务

如同ChatGPT能够被武器化用以辅助网络攻击,ChatGPT也能被用来辅助网络安全防御。目前网上主要讨论的一些用途包括:使用ChatGPT生成检测脚本、使用ChatGPT解析系统日志、使用ChatGPT进行安全情报众包、使用ChatGPT进行安全事件响应等。

然而,和ChatGPT武器化类似,ChatGPT在执行这些任务的时候,也面临诸多问题。具体来说:对于威胁情报,由于模型更新存在周期(ChatGPT的当前知识库仅更新到2021年),威胁情报的实时性无法保障,且大模型的更新周期非常长;对于解析日志,由于不同日志的字段命名和结构存在不同,ChatGPT本身就无法确定解析的正确性,且ChatGPT基于概率,对于同一段日志有可能给出不同解析;对于生成检测脚本,日渐严苛的内容安全策略使得ChatGPT会积极地拒绝生成网络安全相关的脚本,且其正确性仍无法保障;对于安全事件响应,由于ChatGPT自身不会联网,且知识库更新缓慢,故在许多场景下,ChatGPT无法获得正确的安全情报与缓解措施,其生成的内容也不一定正确。

总体来说,ChatGPT辅助执行网络安全任务并非不可能,但仍面临相当多的挑战:

图11 ChatGPT辅助网安任务面临的挑战

绿盟科技对使用ChatGPT辅助网络安全任务进行了详细的分析与调研。我们认为只有深刻了解ChatGPT底层技术特点,结合市场需求与具体安全任务场景,才能将ChatGPT技术真正落地到安全任务中。目前我们的一个思路是:针对具体场景自研小型的NLP模型,从而解决GPT模型体积过大、更新困难、存在外部限制、模型难以部署在产品本地等诸多影响落地的问题。由于ChatGPT的许多功能,诸如写小说、处理数学题等等,对于一些安全场景并不是必须的,因此基于这种思路可以高效地为我们的安全产品引入NLP能力,且脱离大部分ChatGPT的制约因素。在绿盟科技发布的AISecOps系列产品中,我们就已经使用NLP能力来筛除安全产品的冗余告警,并收获了良好效果。因此,从实际出发,找准具体应用场景,来高质量、持久化地提高安全产品的自然语言处理能力,是我们布局下一阶段智慧安全的首要课题。

3.3

智能顾问

得益于ChatGPT底层的大模型和海量训练数据,ChatGPT具备许多领域的专业知识。在相对宏观的专业性问题上,ChatGPT的回答往往比较能够括展用户的思考广度,且为用户提供一些支持案例。

例如针对ChatGPT知识库内已有的内容,ChatGPT能够为用户提供宏观层面的风险缓解策略与建议,如图12所示。

图12 ChatGPT能够提供2021年前的CVE情报与缓解措施

此外,对于甲方安全建设乃至具体项目、产品的安全设计,ChatGPT都能在宏观层面给出有一定建设意义的建议,如图13所示。

图13 ChatGPT能够提供一定的情报,帮助客户进行调研并建设安全体系

因此,我们认为ChatGPT在网络安全上的另一个重要作用是能够作为顾问,提供宏观层面的知识、思路与情报。在未来,我们可能会推出基于ChatGPT及相关技术,为用户提供诸如安全知识培训、产品安全设计服务等功能的智能顾问机器人。

ChatGPT对于网络攻击的总体数量会造成一些影响,但由于ChatGPT在进行原创类的工作上目前仍无法赶超人类,故短期内仍不会因为ChatGPT的出现,产生现有安全防护措施无法处理的安全攻击。然而,自身引入的安全合规风险与社会影响需要被慎重地进行核查,才能保证该技术真正地推动社会进步。尤其是对于ChatGPT自身存在的政治偏见问题和滥用ChatGPT导致的消极社会影响,都应当结合具体技术手段,进行针对性的管理与控制。

工作上目前仍无法赶超人类,故短期内仍不会因为ChatGPT的出现,产生现有安全防护措施无法处理的安全攻击。然而,自身引入的安全合规风险与社会影响需要被慎重地进行核查,才能保证该技术真正地推动社会进步。尤其是对于ChatGPT自身存在的政治偏见问题和滥用ChatGPT导致的消极社会影响,都应当结合具体技术手段,进行针对性的管理与控制。

另一方面,ChatGPT对于网络安全行业的进步具有比较明显的推进作用。绿盟科技近期对此进行了大量的研究与分析,在这个过程中,我们也发现了许多引入ChatGPT到网络安全行业将面临的挑战。从GPT-3模型到ChatGPT,在底层模型结构没有变化的前提下,OpenAI仍然花费了2年的时间对产品进行打磨与优化,才有今天火爆全球的ChatGPT。面对引入ChatGPT赋能网络安全所面临的挑战,我们也将持续投入研究与热情,做出真正能够对用户产生价值的智慧安全产品。 接下来,我会教你零基础入门快速入门上手网络安全。

网络安全入门到底是先学编程还是先学计算机基础?这是一个争议比较大的问题,有的人会建议先学编程,而有的人会建议先学计算机基础,其实这都是要学的。而且这些对学习网络安全来说非常重要。但是对于完全零基础的人来说又或者急于转行的人来说,学习编程或者计算机基础对他们来说都有一定的难度,并且花费时间太长。

这个阶段是所有准备进入安全行业必学的部分,俗话说:基础不劳,地动山摇

学习基础 时间:1周 ~ 2周:

① 了解基本概念:(SQL注入、XSS、上传、CSRF、一句话木马、等)为之后的WEB渗透测试打下基础。 ② 查看一些论坛的一些Web渗透,学一学案例的思路,每一个站点都不一样,所以思路是主要的。 ③ 学会提问的艺术,如果遇到不懂得要善于提问。

配置渗透环境 时间:3周 ~ 4周:

① 了解渗透测试常用的工具,例如(AWVS、【

百度与400多企业合作文心一言项目 百度将推出chatgpt项目文心一言

百度与400多企业合作文案怎么写,企业合作的作文,与百度达成合作关系,84年鼠女五行缺什么忌什么

阳泉,曾经在一个多世纪的重工业历史里贡献了18亿吨煤的中国重要矿区,现在只是山西中东部一座光环褪去的普通城市。入春之后,这里的日落逐渐被推往晚上七点,然后再过两个小时,沿街的餐馆开始歇息,整座城市早早入眠。

刘慈欣前几天和《流浪地球2》来过这里,他和郭帆去阳泉一中做了一场路演。具有传奇色彩的娘子关电厂就在阳泉,刘慈欣在厂里以一个电工身份写出《三体》,阳泉一中是他母校。

阳泉现在的名片,一张是刘慈欣,另一张是百度。两者只隔了五公里。

一位百度员工也去看了那场刘慈欣的路演,结束后车向北开10分钟就可以回到工作地,占地360亩的百度智算中心。

2012年8月,这个巨大的云计算中心开始动工,5个月后李彦宏宣布百度将开始一场贯彻至今的对于深度学习领域的基础研究。在那场将发展人工智能提到战略级高度的年会过去整10年后,28万台服务器已经先后被安置在园区里两组外形相似的巨大模组里,这里成为百度作为一家AI公司的心脏之一。

此刻这颗心脏正在剧烈跳动。

在阳泉智算中心模组一的某一层里,探访者见到了未来将会撑起“文心一言”的服务器组。

备受瞩目的“文心一言”发布在即,这里已经连续多日进行持续到凌晨的压力测试。这座每秒可以完成400亿亿次浮点运算,亚洲目前最大的单体智算中心在本月完成升级,将与百度在江苏盐城等地的其他几座智算中心一起,为“文心一言”背后的算力基础设施提供支持。

李彦宏此前表示,“文心一言”是基于百度智能云技术打造出来的大模型,它将根本性地改变云市场的游戏规则。

在上月的AI+工业互联网高峰论坛上,百度智能云宣布“文心一言”将通过百度智能云对外提供服务,为产业带来AI普惠。百度集团执行副总裁、百度智能云事业群总裁沈抖在论坛上一定程度上解释了李彦宏的表述。

沈抖表示,“云服务已从数字时代跃迁到智能时代,以前企业选择云厂商更多是看算力、存储等基础云服务,以后企业对云的需求会更加聚焦智能服务水平。”

换言之,百度认为AI能力正在成为云服务基本的衡量标准。

去年12月,百度发布国内首个全栈自研的AI基础设施“AI大底座”,百度阳泉智算中心同时正式对外开放。阳泉智算中心这个算力实体与AI的结合过程本身,即是百度对智能服务的理解。

“AI大底座”是百度智算中心搭建的基石。构建起这个底座的是百舸异构计算平台和AI中台。

百舸异构计算平台的核心组成是提供AI算力支持的百度自研AI芯片“昆仑芯”,AI中台则是指飞桨深度学习框架和百度文心大模型而言,打通百度的样本中心、模型中心、AI开发平台、AI服务运行平台,实现从数据存储,到AI模型的训练、生产、部署和测试的全链路、批量化生产。

拆解出来的三者对应上了算力、算法和数据的AI开发全流程闭环。其中作为承上启下的深度学习框架飞桨,则是整个“AI大底座”中最核心的角色。

“飞桨有两个作用,一是作为开发算法的平台,二是连接算力和算法应用”,百度智能云云计算产品解决方案和运营部总经理宋飞表示,“而完全自研的深度学习框架飞桨,在适配调优和快速响应上会非常灵活”。

2016年问世的深度学习平台飞桨在2022年已经稳居中国深度学习平台市场综合份额第一,超过Pytorch和TensorFlow。2022年11月底,飞桨平台上已凝聚535万开发者,服务20万家企事业单位,创建了67万个AI模型。

百度AI大底座是百度各项AI技术的集大成者,通过AI底层技术的通用化和模块化,实现AI服务的规模化。企业在用云时,不再需要把大量时间和成本花在构建基础设施上,而可以通过AI大底座让芯片、大模型、深度学习框架等高门槛的技术的调用做到随用随取。

百度从深度学习开始的AI长远布局,正在兑换成当下生成式AI浪潮中的技术和成本优势。

对于一步慢步步慢的百度智能云来说,“文心一言”或许是最好的机会。

据中国信息通信研究院发布的《云计算白皮书(2022年)》显示,百度云以9%市场份额位居第四,但包括阿里云在内的前三名云厂商几乎占据国内云服务市场的70%份额。

阿里云背后淘宝和钉钉带来的稳定生态,腾讯云自身俱有巨大的泛娱乐生态,相比之下,百度智能云的优势在于AI。人工智能的背后是一场云的战争。“文心一言”有希望成为百度在2019年进一步升级“云+AI”战略后,一次推动云业务加速的契机。

总的来说,配合“文心一言”的发布,百度智能云升级了三大配套云服务。

一是为企业提供巨量高性能智能算力。除了阳泉智算中心的强大算力,“昆仑芯”2代目前也已在百度文心大模型的应用中广泛落地,并为各行各业的智能化升级提供AI算力支持。”

百度智算中心也在持续创新计算架构,支持智算时代下企业不同业务场景的计算任务,提升企业的业务效率和创新能力。目前,百度智算中心已支持了文心预训练大模型、生物计算、自动驾驶等前沿AI应用。同时,基于自研创新技术可使PUE低至1.08,实现了高效节能的运行,从而降低客户的电费和运维成本。

二是为企业提供新型AI基础设施,实现AI开发的降本增效。

百度智能云通过对算力、框架、模型、AI应用进行封装,推出“百度AI大底座”。从高端芯片昆仑芯,到飞桨深度学习框架,到文心预训练大模型,再到AI应用,实现端到端的智能化闭环,AI技术的使用门槛被降低,变成像水电能一样供企业按需取用,大幅降低企业开发成本,提升效率。

宋飞表示:“百度AI大底座可基于实际业务数据进行不断调优,使得资源利用率提升至70%,企业开发效率提升100%。”

最后,百度智能云为企业提供了AI研发运营一体化(MLOps)能力,加速生成式AI等大模型产品快速产业落地。百度AI中台总监忻舟表示,百度AI大底座将面向企业提供一系列AI研发运维工具。企业在接入文心一言后,可低成本、便捷地完成与业务场景的适配与二次开发,通过AI工程化能力帮助产业突破AI落地的“最后一公里”。

还有一天“文心一言”即将上线。它或许不只是一个答案,更是一把AI普惠的钥匙。