首页 热点爆料正文

智谱 AI 上线大模型开放平台 bigmodel.cn

歆梦资源网5月13日 消息: 智谱 AI 上线大模型开放平台 bigmodel.cn ,该平台是一个集成了 GLM 系列大模型的平台。这些大模型包括企业版 GLM-4/4V、个人版 GLM-3Turbo、文本描述创作图像的 CogView-3、角色定制模型 CharacterGLM、中文向量模型 Embedding-2和代码模型 CodeGeeX 等。这些模型都是由智谱 AI 自主研发,安全可控。

在 bigmodel.cn 上,用户可以找到完整的,提供开箱即用的 AI 应用,丰富的模型产品和竞争力价格,以及便捷的开发体验。新注册用户可以获得额度从500万 tokens 提升至2500万 tokens。

微信截图_20240513080533.png

个人版 GLM-3Turbo 是平台上的模型产品,具有快速的速度和高推理能力。调用价格也降低至1元 / 百万 tokens,适用于知识量、推理能力和创造力要求高的场景。此外,即将推出 GLM-3Turbo Batch 批处理 API,价格为1元 /200万 tokens。

企业版 GLM-4/GLM-4V 部署着进的大模型,提供了强大的问答和文本生成能力。GLM-4V 实现了视觉语言特征的深度融合,支持各种图像理解任务。在评测体系中,GLM-4在语义理解等方面的能力表现优异。

bigmodel.cn 已经聚集了数十万的企业和开发者,用户数量持续增长。平台提供多种功能,包括官方开发的调用工具和开箱即用的 AI 应用开发资源。每个人都能在 bigmodel.cn 上找到满足自己需求的大模型。

( 举报 )


全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建Agent

智能革命新纪元,智谱AI引领潮流!

智谱AI以卓越的创新力,推出了GLM-4大模型全家桶,犹如一颗璀璨的明珠,挑战OpenAI生态的前沿。这款新一代模型性能提升高达60%,在多项关键指标上逼近GPT-4,堪称技术里程碑。GLM-4不仅支持长文本处理、多模态交互,还具备快速推理和并发执行的能力,大大降低了推理成本,让技术触手可及。

CEO张鹏强调,智谱AI构建了全方位的技术架构,涵盖了多模态、代码生成等多个领域,致力于追赶并超越OpenAI的技术深度。GLM-4的亮点在于其个性化定制和智能体功能的整合,通过MaaS平台提供API,让非程序员也能轻松创建高效Agent。开源内核模型的引入,促进了技术共享和创新探索。

在实际应用中,GLM-4展现了卓越的性能。在评测中,它在语言理解、数学问题解决和跨语言任务上超越GPT-3.5,甚至在专业领域的中文对齐和特定能力上超越了GPT-4。从生成连续故事到执行复杂计算,GLM-4在网页浏览的准确度上更是超越了GPT-4,展示了强大的联网和Function Call能力,中文理解的深度更是超越了国际同行。

特别是,智谱AI的创新之作如CogView3和GLM-4V,分别在手部图像生成、语义理解以及表格转换等方面展现了令人瞩目的能力。通过它们,用户可以轻松地进行数据可视化,从屏幕内容中提取信息并执行任务,向着多模态智能助手的目标稳步迈进。

为了推动技进步,智谱AI积极设立大模型基金,包括CCF-智谱和SMP-智谱,总额超过10亿元,支持科研与创业的创新实践。通过开源,智谱AI与全球2000多家伙伴紧密合作,从Transformer架构的开源到GLM-130B的发布,持续推动AI技术的开放与共享。

尽管起步相对较晚,但智谱AI的GLM系列凭借卓越的性能和广泛的商业应用,已成为亚洲在国际舞台上的重要代表。2023年,ChatGLM-130B的迭代升级和开源下载量突破千万,彰显了公司在开源与商业化领域的实力。面对国际竞争的焦点,智谱AI坚定走MaaS路径,呼吁全球伙伴共同构建自主可控的AI未来,以开放创新的姿态迎接新的挑战和机遇。

AI干货分享:PaddlePaddle官方九大NLP模型盘点

引言自然语言处理(NLP)主要是研究实现人与计算机之间用自然语言进行有效通信的各种理论和方法。 基于神经网络的深度学习技术具有强大的表达能力、端到端解决问题的能力,因而在NLP任务的应用上越来越广泛和有效。 近日,网络PaddlePaddle开源了语义表示模型ERNIE,在多个中文NLP任务上表现超越了谷歌的BERT(请参考链接),展示了网络在NLP技术的领先能力,同时也表明PaddlePaddle作为国内目前唯一功能完备的深度学习平台,在不断得夯实框架能力,并引领技术进步。 实际上除了ERNIE,PaddlePaddle官方还有很多其他的NLP模型,覆盖了包括语义表示、语义匹配、阅读理解、机器翻译、语言模型、情感倾向分析、词法分析等各项NLP任务。 本文将对这些模型做一些梳理和介绍。 语义表示-ERNIE知识增强的语义表示模型ERNIE(EnhancedRepresentationthroughkNowledgeIntEgration)通过对词、实体等语义单元的掩码,使得模型学习完整概念的语义表示。 相较于BERT学习原始语言信号,ERNIE直接对先验语义知识单元进行建模,增强了模型语义表示能力。 ERNIE模型本身保持基于字特征输入建模,使得模型在应用时不需要依赖其他信息,具备更强的通用性和可扩展性。 相对词特征输入模型,字特征可建模字的组合语义,例如建模红色,绿色,蓝色等表示颜色的词语时,通过相同字的语义组合学到词之间的语义关系。 此外,ERNIE的训练语料引入了多源数据知识。 除了百科类文章建模,还对新闻资讯类、论坛对话类数据进行学习,这里重点介绍下论坛对话建模。 对于对话数据的学习是语义表示的重要途径,往往相同回复对应的Query语义相似。 基于该假设,ERINE采用DLM(DialogueLanguageModel)建模Query-Response对话结构,将对话Pair对作为输入,引入DialogueEmbedding标识对话的角色,利用DialogueResponseLoss学习对话的隐式关系,通过该方法建模进一步提升模型语义表示能力。 ERNIE在语言推断、语义相似度、命名实体识别、情感分析、问答匹配等自然语言处理(NLP)各类中文任务上的验证显示,模型效果全面超越BERT,如下表所示。 项目地址:ERNIE:语义匹配-DAM,AnyQ-SimNet语义匹配是一种用来衡量文本相似度的NLP任务。 很多NLP的任务可以转化为语义匹配问题。 比如搜索可以认为是查询词与文档之间的语义匹配问题,对话系统、智能客服可以认为是问题和回答之间的语义匹配问题。 PaddlePaddle官方提供了两种语义匹配相关的模型:DAM和AnyQ-SimNet。 深度注意力匹配网络DAM(DeepAttentionMatchingNetwork)DAM是一个完全基于Attention机制的神经匹配网络。 DAM的动机是为了在多轮对话中,捕获不同颗粒度的对话元素中的语义依赖,从而更好地在多轮上下文语境中回复。 它可用于检索式聊天机器人多轮对话中应答的选择。 DAM受启发于机器翻译的Transformer模型。 将Transformer关键的注意力机制从两个方面进行拓展,并将其引入到一个统一的网络之中。 (1)自注意力机制(Self-Attention)通过从词嵌入中叠加注意力机制,逐渐捕获不同颗粒度的语义表示。 这些多粒度的语义表示有助于探索上下文和回答的语义依赖。 (2)互注意力机制(Cross-Attention)贯穿于上下文和回答的注意力机制,可以捕获不同语段对的依赖关系,从而在多轮上下文的匹配回答中为文本关系提供互补信息。 DAM模型网络结构该模型在Ubuntu和豆瓣对话两个语料库上测试了多轮对话任务,如下表所示,相比其他模型有最优的效果。 DAM模型的效果对比PaddlePaddle开源的DAM项目提供了数据准备、模型训练和推理等详细的应用步骤。 该项目的地址为:是网络自主研发的语义匹配框架,该框架在网络内有广泛的应用,主要包括BOW、CNN、RNN、MM-DNN等核心网络结构形式,同时基于该框架也集成了学术界主流的语义匹配模型。 使用SimNet构建出的模型可以便捷的加入AnyQ系统中,增强AnyQ系统的语义匹配能力。 Paddle版本Simnet提供了BOW,CNN,LSTM及GRU四种网络实现,可以通过配置文件的形式灵活选择您需要的网络,损失函数,训练方式。 PaddlePaddle官方提供了完整的数据准备、训练和推理的相关使用方法。 SimNet项目链接:阅读理解-DuReader机器阅读理解是指让机器像人类一样阅读文本,提炼文本信息并回答相关问题。 对人类而言,阅读理解是获取外部知识的一项基本且重要的能力。 同样,对机器而言,机器阅读理解能力也是新一代机器人应具备的基础能力。 DuReader是一个解决阅读理解问题的端到端模型,可以根据已给的文章段落来回答问题。 模型通过双向Attention机制捕捉问题和原文之间的交互关系,生成Query-Aware的原文表示,最终基于Query-Aware的原文表示通过PointNetwork预测答案范围。 DuReader模型在最大的中文MRC开放数据集——网络阅读理解数据集上,达到了当前最好效果。 该数据集聚焦于回答真实世界中开放问题,相比其他数据集,它的优点包括真实的问题、真实的文章、真实的回答、真实的场景和翔实的标注。 DuReader受启发于三个经典的阅读理解模型(Bi-DAF、Match-LSTM和R-NET),是一个双向多阶段模型,共有5层:词嵌入层——用预训练词嵌入模型将每一个词映射到一个向量上编码层——用双向LSTM网络为每一个问题和段落的位置抽取上下文信息Attentionflow层——耦合问题和上下文向量,为上下文中的每一个词生成query-aware特征向量Fusion层——利用双向LSTM网络捕获上下文的词之间的相互信息解码层——通过问题的attention池化的answerpoint网络定位答案在段落中的位置。 PaddleGithub链接:机器翻译-TransformerTransformer最早是谷歌提出的一种用以完成机器翻译等Seq2Seq学习任务的一种全新网络结构,它完全使用Attention机制来实现序列到序列的建模,相比于以往NLP模型里使用RNN或者编码-解码结构,具有计算复杂度小、并行度高、容易学习长程依赖等优势,整体网络结构如图1所示。 图1:Transfomer模型结构Encoder由若干相同的layer堆叠组成,每个layer主要由多头注意力(Multi-HeadAttention)和全连接的前馈(Feed-Forward)网络这两个sub-layer构成。 Multi-HeadAttention在这里用于实现Self-Attention,相比于简单的Attention机制,其将输入进行多路线性变换后分别计算Attention的结果,并将所有结果拼接后再次进行线性变换作为输出。 参见图2,其中Attention使用的是点积(Dot-Product),并在点积后进行了scale的处理以避免因点积结果过大进入softmax的饱和区域。 Feed-Forward网络会对序列中的每个位置进行相同的计算(Position-wise),其采用的是两次线性变换中间加以ReLU激活的结构。 图2:多头注意力(Multi-HeadAttention)此外,每个sub-layer后还施以ResIDualConnection和LayerNormalization来促进梯度传播和模型收敛。 PaddlePaddle官方提供了该模型的数据准备、训练和推理等方法。 目前在未使用modelaverage的情况下,英德翻译basemodel和bigmodel八卡训练100K个iteration后测试BLEU值如下表所示:Transformer模型支持同步或者异步的分布式训练。 Paddle官方提供了详细的配置方法。 Github项目地址:语言模型-LSTM,GRURNN、LSTM和GRU是深度学习在NLP中应用的基础语言模型。 RNN模型在同一个单元中,每个时刻利用当前和之前输入,产生当前时刻的输出,能够解决一定时序的问题,但是受到短时记忆影响,很难将信息从较早的时间传到较晚的时间。 LSTM通过引入门结构(forget,input,output三种门结构),能够将序列的信息一直传递下去,能够将较早的信息也引入到较晚的时间中来,从而客服短时记忆。 GRU与LSTM非常相似,但是只有两个门(update,reset),因而参数更少,结构简单,训练更简单。 Paddle提供了基于PennTreeBank(PTB)数据集的经典循环神经网络LSTM语言模型实现,通过学习训练数据中的序列关系,可以预测一个句子出现的的概率。 Paddle也提供了基于PennTreeBank(PTB)数据集的经典循环神经网络GRU语言模型实现,在LSTM模型基础上做了一些简化,保持效果基本持平的前提下,模型参数更少、速度更快。 Github链接:情感倾向分析-Senta情感倾向分析针对带有主观描述的中文文本,可自动判断该文本的情感极性类别并给出相应的置信度。 情感类型分为积极、消极、中性。 情感倾向分析能够帮助企业理解用户消费习惯、分析热点话题和危机舆情监控,为企业提供有力的决策支持。 Senta模型是目前最好的中文情感分析模型,可自动判断中文文本的情感极性类别并给出相应的置信度。 它包含有以下模型:?Bow(BagOfWords)模型--是一个非序列模型。 使用基本的全连接结构。 ?浅层CNN模型--是一个基础的序列模型,能够处理变长的序列输入,提取一个局部区域之内的特征。 ?单层GRU模型--序列模型,能够较好地解序列文本中长距离依赖的问题。 ?单层LSTM模型--序列模型,能够较好地解决序列文本中长距离依赖的问题。 ?双向LSTM模型--序列模型,通过采用双向LSTM结构,更好地捕获句子中的语义特征。 网络AI平台上情感倾向分析模块采用此模型进行训练和预测。 下图展示了这种模型的原理。 基于Bi-LSTM的情感分类模型总体来说,基于Bi-LSTM的情感分类模型包括三层:单词语义层,句子语义层,输出层。 1.单词语义层,主要是将输入文本中的每个单词转化为连续的语义向量表示,也就是单词的Embedding。 2.句子语义层,通过Bi-LSTM网络结构,将单词语义的序列转化为整个句子的语义表示。 3.输出层,基于句子语义计算情感倾向的概率。 在PaddlePaddle的该模型项目地址上,给出来在C-API目录下给出了bilstm_net模型的下载脚本,可供用户下载使用(模型可支持C-API、python两种预测方式),该模型在网络自建数据集上的效果分类准确率为90%。 Github项目地址:中文词法分析-LACLAC是一个联合的词法分析模型,能够整体性地完成中文分词、词性标注、专名识别等NLP任务。 LAC既可以认为是LexicalAnalysisofChinese的首字母缩写,也可以认为是LACAnalyzesChinese的递归缩写。 中文分词--是将连续的自然语言文本,切分成具有语义合理性和完整性的词汇序列的过程词性标注(Part-of-Speechtagging或POStagging)--是指为自然语言文本中的每个词汇赋予一个词性的过程命名实体识别(NamedEntityRecognition简称NER)--即专名识别,是指识别自然语言文本中具有特定意义的实体,主要包括人名、地名、机构名、时间日期等LAC基于一个堆叠的双向GRU结构(Bi-GRU-CRF),在长文本上准确复刻了网络AI开放平台上的词法分析算法。 网络结构如下图所示。 用两个Bi-GRU堆叠的Bi-GRU-CRF网络Bi-GRU是GRU网络的一种拓展,由一个反向的GRU与一个正向的GRU耦合而成,将一个完整的句子作为。 两个GRU的输入相同,但是训练方向相反。 两个网络的结果拼接以后作为输出。 堆叠多个Bi-GRU可以形成深度的网络,从而能够促进语义的表示能力。 本模型堆叠了两层Bi-GRU。 之后,将Bi-GRU的输出连到一个全连接层。 它将Bi-GRU层的输出转为一个多维度向量,向量的维度是所有可能标签的数量。 整个网络最上方,使用了CRF(条件随机场)对最后的标签做联合解码。 效果方面,分词、词性、专名识别的整体准确率95.5%;单独评估专名识别任务,F值87.1%(准确90.3,召回85.4%),总体略优于开放平台版本。 在效果优化的基础上,LAC的模型简洁高效,内存开销不到100M,而速度则比网络AI开放平台提高了57%。 Github链接:官方模型库Github地址项目地址:

幂律智能CTO张惟师:法律大模型激活法律服务新范式

在2023年的战略发布会上,幂律智能CTO张惟师以一场引人入胜的演讲,揭开了法律服务新范式的序幕。张惟师以其丰富的行业经验和热爱,向与会者详细介绍了针对中小企业量身打造的「无忧吾律」法律服务产品,旨在用科技力量重塑法律服务行业的格局。

在幂律的视角里,法律服务不仅是解决法律问题,更是企业运营的保驾护航。张惟师分享了一个深刻的教训,早期幂律因缺乏专业法律审查,曾因合同瑕疵而付出额外成本。这揭示了中小企业普遍面临的法律服务缺失问题——98%的中小企业缺乏法务团队,法律服务需求与实际供给之间的鸿沟亟待填补。

随着中小企业市场的不断扩大,法律服务市场预计到2027年将达到4500亿的规模,但渗透率却仍然偏低。这一矛盾促使幂律寻求科技的突破。在2023年6月,幂律联合智谱AI推出了PowerLawGLM——一个基于中文千亿大模型的法律垂直大模型,它在处理中小企业高频法律需求上展现了卓越性能,甚至超越了人工答案的质量。

张惟师坚信,法律大模型的出现为解决服务质量、效率和成本之间的矛盾提供了新思路。借助PowerLawGLM,「无忧吾律」应运而生,旨在提供及时、高品质且价格亲民的法律服务。它的服务特色在于:

然而,实现这些看似矛盾的目标并非易事,幂律凭借其在大企业服务中的丰富经验和PowerLawGLM的特性,成功构建了AI人机结合的服务模式。在无忧吾律的服务流程中,法律大模型赋能法务,大幅提高了效率,同时确保服务质量。

在具体的法律咨询过程中,从需求识别、AI初稿生成,到人工核验,每个环节都精心设计,确保了服务的精准性和效率。特别是合同审查,通过AI和人工的协同工作,将传统一天的工作量压缩至1-2小时,同时还保持了审查质量。

为了满足不同企业需求,无忧吾律提供了基础版、专业版和至尊版三个服务套餐,覆盖劳动用工、股权交易等多领域,价格适中,且服务质量有保障。上线试运行两个月以来,已收获近百家中小企业客户的信任,满意度高达90%以上。

幂律智能以PowerLawGLM的强大技术实力,践行着普惠优质法律服务的承诺。无论你是中小企业还是寻求法律支持的企业家,「无忧吾律」都将成为你信赖的法律服务伙伴。若想深入了解,只需向我们咨询,我们期待与你一起开启法律服务的革新之旅。

更多优质资源请微信扫码访问:盘姬资源网小程序


免责声明

本文仅代表作者观点,不代表本站立场,内容的真实性请自行甄别谨防上当受骗。

本站采用 CC BY-NC-SA 4.0 国际许可协议 进行许可,转载或引用本站文章应遵循相同协议。

  1. 本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。

  2. 本站信息来自网络收集整理,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。我们非常重视版权问题,如有侵权请邮件与我们联系处理。敬请谅解!

  3. 本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报。

  4. 如果有侵犯版权的资源请尽快联系站长,我们会在24h内删除有争议的资源。

站长邮箱:xm520vip@gmail.com

本文链接:https://123.775n.com/post-225.html

相关文章

发表评论

评论列表(0人评论 , 151人围观)
☹还没有评论,来说两句吧...

会员中心

歆梦资源网(775n.com)-探索精品网络资源的宝藏之地

https://123.775n.com/

| 京ICP备100000000

Powered By 某某网络科技有限公司

使用手机软件扫描微信二维码

关注我们可获取更多热点资讯