企业内部如何更好落地大模型?我们走访了 10+ 先行者_本地库使用来源大模型会数据外流吗

企业内部如何更好落地大模型?我们走访了 10+ 先行者_本地库使用来源大模型会数据外流吗
在微软推出 Copilot 后,工作场景中如何落地 LLM 很快成为业内关注的重点。钉钉、飞书等办公软件也快速在最新版本中集成 AI

微软推出Copilot后,如何在工作场景中落地LLM迅速成为业界关注的焦点。钉钉、飞书等办公软件也正在快速将AI能力融入到最新版本中。

对于软件公司来说,Notion和Duolingo等产品已经展示了为现有软件添加人工智能功能并提供新输出价值的能力。此外,在企业生产场景中,整合LLM的能力、强化企业组织也成为AI落地的重点。

方正帕克研究中心采访了许多第一批尝试使用新技术在企业内构建应用程序的从业者。据我了解,随着大模型技术的话题变得越来越广泛,来自各个部门和行业的公司更愿意在其内部生产环境中尝试LLM。

但应用实施的速度和质量也与企业自身对技术的理解、技术能力以及实施方法的选择密切相关。我们希望这份概述研究能够为考虑和考虑LLM支持生产的公司提供有价值的参考。

创始人简介

在企业生产环境中,数字化专家/职位经验、扩大最佳实践以及快速授权初级员工是法学硕士目前可以提供价值的方式。

难以编写规则或缺乏流程数据的需求目前不适合LLM申请。通过从自己的数据收集和小能力开始,您可以快速积累实践中的积极反馈,并为更深层次的LLM-业务整合奠定基础。

LLM的两端是输入和输出。无论是使用提示还是更重的SFT,高质量的输入决定高质量的输出。高质量的输入包括但不限于有组织的知识库文本、专家经验的提示以及保留专业知识的程序数据/问答对。

定义输入和输出的先决条件是阐明应用程序在工作流程中执行的具体职责/功能。因此,在场景方面,基于工作流程的具体明确的需求将有助于应用的顺利实施。

需要实现有效性和优化成本等综合技术要素的灵活组合,或者通用模型和具有特定功能的紧凑模型的组合。第一个实现想法是将LLM功能集成到现有系统中,以构建以前难以实现的应用程序。

由于LLM的概率模型属性,使其在应用实施工程中具有一定的黑箱性质,并且随着经验的增加,应用实施效率越来越高。经验越丰富的实施者更有可能取得高质量的结果。

实施法学硕士申请需要自上而下和自下而上的视角相结合。即使LLM申请不是高层领导亲自推动的,但至少应该提供明确的指导,即一线员工最好对申请切入点和申请表格的具体选择有一定的认识。当产品首次推出时,员工很乐意使用它并进一步优化应用程序。

【1:1 AGI大规模模型,1:1学习所有资源获取点】

人工智能/大规模模型学习路线

AI产品经理入门指南

大模型必读书籍PDF版

超详细大型模型实战项目

LLM大规模模型系统学习教程

640套-AI大模型报告合集

从0-1开始大模型教程视频

AGI大模型技术公开课框架

01

LLM 技术特点适合场景:

内容创作与对话交互

作为一个概率模型,LLM的本质是预测下一个token。因此,在应用中,虽然具体表达有所不同,但目标的本质是让模型能够预测给定上下文中的下一个token 及其准确性。达到了预期的标准。

从总体上看,LLM具有语言理解和逻辑推理能力,在应用构建中实现时,可以表现为写作和交互两种功能模式。

专注于内容写作技巧并最终交付书面内容。

常见用例包括生成营销文案和生成报告。对于这样的用例,让模型根据特定的逻辑、风格和模式生成内容非常重要。通过各种工程方法,模型的能力最终可以发展成为具有专业知识的作家,能够按照一定的规则输出内容。一个典型的例子是在EC领域,我们根据产品的基本信息和促销的背景,生成符合EC平台规则并具有SEO优化效果的促销文案。事实证明,完成这样的任务需要一位有运营经验的商业老手。

代码辅助可以认为是一种特殊的写作场景,编码能力本身就成为模型评估的指标。作为一项应用程序功能,LLM 可帮助您快速完成代码并修复错误。相关应用程序还扩展了代码注释和代码执行。企业内部的代码与业务强相关,而在企业研发场景中,个性化和适配模型功能不仅可以提高开发效率、标准化统一格式,而且可以提高代码整体的复用性。企业代码资产不断积累。

目前的限制是模型输出代码大约有30-50行长,更高级的软件工程能力需要升级大型模型本身的功能。

执行任务需要对话交互,并且对交互的质量有要求。

常见用例包括内部员工问答助理和客户服务助理。这些用例的关键是让模型根据交互的特定上下文解释信息。通过沟通,信息、人员和职位描述进一步匹配,其中大部分最终被封装为聊天机器人和代理的形式。例如,在“bug分布”等非常具体的小特征的情况下,系统测试人员可以描述发生的具体bug,在代理阅读并理解之后,最确定一个合适的匹配。运维人员下发工单,准确匹配现有系统中的信息。

在实践中,这两种功能模型经常根据具体需要结合使用。例如,在交互过程中,根据相关文档提取有针对性的信息,并据此进行编写,帮助业务人员创建必要的报告,提高交互的有效性。

02

面向企业,

LLM 可以带来哪些具体价值

LLM不仅提供工具,还提供整个流程中具体环节的工作成果。

应用程序实现可以被视为为模型提供特定的上下文和清晰的行为规范。 LLM独特的理解和推理能力可以应用于多种场景。通用功能封装在特定职位和环节所需的功能中,叠加生产过程专业知识和通用智能。

如果你想在真实公司的生产流程中实现这一点,数字化专家和业务知识以及高质量的流程数据是两个可行的想法。

通过组织知识库,可以将专家和职位的知识数字化。例如,客户服务链接是最快实施的,因为它们有清晰的说话风格和响应标准,LLM也可以在此基础上实现自然的沟通。

有些工作和职位的技能和诀窍很难用清晰的语言描述,但可以用在工作流程文件中,例如项目计划要求、初稿以及一份好的销售简历的人员分析和最终草案中。将会被拯救。通过输入这些过程数据,模型可以吸收和模仿功能。

通过数据安全、幻觉和支持工程满足您的需求

B端普遍关心的幻想和数据隐私问题主要是通过技术的正确组合来解决的。由于LLM本质上是概率模型,在项目实施过程中可以加入规则约束、RAG技术、上下游流程控制等技术,以保证所需场景下的正确答案率能够达到要求。它被拒绝并最终实现错误率为0。

企业在本地部署的知识库和微调模型可确保大多数数据周期发生在本地。与操作相关的关键数据直接由本地模型(通常是较小的、经过微调的模型)处理。当需要使用大型模型的推理、读写能力时,只使用部分、分布式、不敏感的数据。调用外部API时可能会出现数据泄露的情况,但这也在公司的容忍范围内。

它们只能通过微调目标任务来实现。

最初,“垂直行业大规模模型”被认为是工业应用的解决方案,因为通用模型缺乏领域知识。这意味着通过领域相关数据进行微调,使模型兼具通用智能和垂直领域知识。但在实践中,我们发现在各种场景下的这种微调对应用程序的实现影响不大。

这就像拥有一本行业百科全书,但这并不意味着你拥有专业技能。如果一家公司期望“在内部调整垂直模型,在每个位置添加几行提示,并将其变成专用的GPT”,那么在生产场景中构建应用程序将是困难的。实现有效性需要根据具体、明确的需求进行微调。要对其进行微调,您需要定义模型在特定上下文中给出的“标准答案”并准备问答环节。

例如,在招聘领域,当面临批量招聘职位时,在简历的初筛过程中,大模型会读取简历并给出评估,以供人力资源进一步筛选。这是一个特定的功能要求。

结合面向任务的数据是关键

在成功的企业实践中,最终产品的交付往往是具体工作环节的生产力,即具体任务的绩效。大型模型是通用的。为了使模型有效地将通用性与特定专业知识结合起来,它必须了解特定类型的数据。这些是“面向任务的数据”,其内容、格式、质量等要求与工程计划紧密结合。

准备此类数据需要实施者具有工程经验和对业务本身的了解。定义和分类这部分数据需要企业和技术供应商之间的良好协作。 SOP的分类和细化也是先决条件。

但比较大的变化是,在LLM时代,传统NLP知识标注的工作明显减少了。相关从业者表示,“虽然工程师曾经需要帮助公司建立他们的专业知识基础,但现在大型模型可以自己做一些事情,而法学硕士”因为他们有理解和推理的能力,他们也有能力直接阅读并分析。”利用您的数据知识。

03

部署应用成本已大幅降低

04

让我们超越聊天机器人和代理,从工作流程的角度来看待应用程序。

在ChatGPT演示了对话界面后,每个构建企业级产品的人的第一反应都是在原有功能的基础上添加一层机器人。然而,这往往会增加用户的工作量。在某些情况下,用户可能还需要养成与ChatBot交互的习惯。

在微软定义了Copilot 的应用范式之后,随着OpenAI 强调代理的概念,人们开始考虑将Copilot 添加到企业内的职位中。从功能实现的角度来看,聊天机器人是交互式接触点,但代理结合上下文来做出实施决策并根据特定规则采取行动。

当考虑大规模模型对企业运营的价值时,日常运营的工作流程和数据流可能是更合适的视角。例如,您可以将日常工作流程的哪些部分移交给法学硕士?如果您需要在大规模模型中处理企业数据,这些数据在您的业务中发挥什么价值以及它在价值链中的位置?您当前运营模式的哪些方面可以被更大的模式取代?

从数据反馈角度建立产品优化思路

围绕产品的数据流通是提高应用程序功能的先决条件。采访中,不少从业者提到了产品磨练和优化的过程。无论打磨节奏如何,第一代演示版推出后,专家和现场员工都应该在使用过程中不断提供反馈和优化。有人说,将测试集和模型反馈标准提高到90分是完全可控的,即使发布只是“30分演示”。

产品的探索和深化还必须在数据反馈和数据循环设计方面进行思考。一些B端产品开发者表示,虽然当前产品使用情况的数据反馈还没有形成数据飞轮,但它可以提供如何优化产品的诀窍。毕竟,单个功能所能创造的价值是有限的。只有考虑产品系统内整个知识的生成和流动,产品设计才能更好地与原生工作流程融合。为您的生产带来多重价值。

为了支持大规模使用,基本模型必须针对功能和成本进行优化。

大家感觉目前国产型号的功能已经接近GPT-3.5,距离GPT-4还有很大差距。应用程序构建者最了解LLM的功能,他们对该模型功能的具体期望主要是整体功能和稳定性的改进。

有从业者表示,“虽然该模型能够获得比较好的发电质量,但性能并不稳定,30%的情况下会出现不好的结果”。使用过国内外模型的应用构建者应该比较一下GPT-4和Claude,国内模型的命令跟随能力有很大差距,需要编写更复杂的提示,当跟随性较低时,需要更多的交互来实现。理想的生成结果,这会增加代币的消耗并降低每个人的总体推理成本。

基础实践经验总结

新职位的生产效率优于其替代职位的生产效率,因此实际上提高了整个社会的生产效率。

但对于具体的个人,我只能说:

“那些先掌握人工智能的人将比那些后来掌握它的人拥有竞争优势。”

这句话在计算机、互联网、移动互联网的早期也同样成立。

我在互联网公司的第一线工作了十多年,指导过很多初级同事。帮助了很多人学习和成长。

我们认识到我们有很多宝贵的经验和知识可以与您分享。我们还可以利用我们的能力和经验来解答学习人工智能中的很多困惑。这就是为什么我仍然坚持组织和分享不同的事情。忙于工作。然而,由于知识传播渠道有限,很多互联网行业的朋友无法获得正确的学习资料来提高学习水平。因此,重要的AI大规模模型学习资料包括AI大规模模型入门学习思维导图、优质AI大规模模型学习。书籍、手册、视频教程、实践学习和其他录制视频均免费共享。

-结尾-

05

作为一名善良的互联网老手,我发现自己有很多经验和知识值得与大家分享。我们还可以利用我们的能力和经验来解答学习人工智能中的很多困惑。所以我还是提出不同的观点。尽管您的工作日程繁忙,但仍然可以组织和共享任务。

然而,由于知识传播渠道有限,很多互联网行业的朋友无法获得正确的学习资料来提高学习水平。因此,重要的AI大规模模型学习资料包括AI大规模模型入门学习思维导图、优质AI大规模模型学习。书籍、手册、视频教程、实践学习和其他录制视频均免费共享。

需要的朋友可以扫描下方二维码免费领取

应用深入,

大规模AI模型时代的学习之旅:掌握人工智能从基础到前沿的核心技能!

还需解决哪些问题

本次收录的640篇报告涵盖了大规模人工智能模型的理论研究、技术实现、行业应用等多个方面。无论您是对大规模人工智能模型感兴趣的科学研究人员、工程师还是业余爱好者,这组报告都可以提供宝贵的信息和灵感。

那么,如何学习大模型 AGI ?

随着人工智能技术的快速发展,AI大模型在当今科技领域备受关注。 GPT-3、BERT、XLNet等大规模预训练模型以其强大的语言理解和生成能力正在改变我们对人工智能的理解。 以下PDF 书籍是很好的学习资源。

如何系统的去学习大模型LLM ?

一、全套AGI大模型学习路线

目标:了解人工智能大规模模型的基本概念、开发流程和核心原理。内容:

L1.1 人工智能概述和大型模型的起源L1.2 大型模型和通用人工智能L1.3 GPT 模型发展历史L1.4 模型工程

– L1.4.1 知识大规模模型

– L1.4.2 创建大型模型

– L1.4.3 模型工程方法

– L1.4.4模型工程实践L1.5 GPT应用案例

二、640套AI大模型报告合集

目标:掌握AI大规模模型API的使用和开发以及相关编程技能。内容:

L2.1 API接口

– L2.1.1 OpenAI API接口

– L2.1.2 访问Python接口

– L2.1.3 BOT工具框架

– L2.1.4 代码示例L2.2 提示框架

– L2.2.1 什么是提示?

– L2.2.2 提示框架申请状态

– 基于L2.2.3 GPTAS的提示框架

– L2.2.4 直接框架和思维方式

– L2.2.5提示框架和提示词L2.3管道工程

– L2.3.1 装配线工程概念

– L2.3.2 装配线工程的优点

– L2.3.3 装配线工程应用L2.4 总结与展望

三、AI大模型经典PDF籍

目标:深入理解大规模AI模型的应用架构,并能够进行私有化部署。内容:

L3.1 Agent模型框架

– L3.1.1 Agent模型框架设计理念

– L3.1.2代理模型框架的核心组件

– L3.1.3 Agent模型框架L3.2 MetaGPT实现细节

– L3.2.1 MetaGPT 基本概念

– L3.2.2 MetaGPT 的工作原理

– L3.2.3 MetaGPT应用场景L3.3 ChatGLM

– ChatGLM L3.3.1 特性

– L3.3.2 ChatGLM开发环境

L3.3.3 ChatGLM 使用示例L3.4 LLAMA

– L3.4.1 LLAMA 特点

– L3.4.2 LLAMA开发环境

– L3.4.3 LLAMA使用示例L3.5 其他大型模型介绍

四、AI大模型商业化落地方案

目标:掌握多个大规模人工智能模型的私有化部署,包括多模式和特定领域模型。内容:

L4.1 模式私有化部署概述L4.2 模式私有化部署关键技术L4.3 模式私有化部署实施步骤L4.4 模式私有化部署应用场景

阶段1:AI大模型时代的基础理解

第一阶段:1-2个月建立AI大型模型的基础知识体系。第二阶段:2-3个月,重点提高API应用开发能力。第三阶段:3-4个月。获得有关应用程序架构和大规模人工智能模型的私有部署的全面实践经验。第4 阶段:4-5 个月,重点关注高级模型应用和部署。

阶段2:AI大模型API应用开发工程

有需要的朋友可以扫描下方二维码免费领取

#以上是关于如何在您的企业内更好地实施大规模模型吗?我们拜访了10多个先驱者。本地图书馆使用Source的大规模模型是否会造成数据泄露? 相关内容Source网络仅供参考。相关信息请参见官方公告。

原创文章,作者:CSDN,如若转载,请注明出处:https://www.sudun.com/ask/93155.html

Like (0)
CSDN的头像CSDN
Previous 2024年7月5日
Next 2024年7月5日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注