2023前端技术博客,2023前端开发技术
在我们之前的产品文章中,我们探讨了NebulaGraph内核和周边工具在2023年将发生的变化。随着这些功能的变更和发布,[文章]博客类别中的博客文章记录了这些功能背后的设计思维和研发实践。其中既有内存管理MemoryTracker原理的讲解,也有NebulaGraph的安装和选型指南。
由于LLM是2023年科技界的热门话题,NebulaGraph正在利用Graph+RAG的机会,让社区用户了解图、知识图和大模型的新三元组。无独有偶,社区合作伙伴海克拉迪的《使用ChatGLM构建知识图谱》开启了GPT构建知识图谱的新篇章,让知识图谱构建变得更加简单。
除了LLM和图数据库NebulaGraph之外,今年也是NebulaGraph技术社区首次发布DDIA系列,提供对分布式系统从基础数据结构到顶层架构设计更全面的理解。
下面我们来看看今年NebulaGraph技术社区值得一读的博文。如果您觉得这是一篇好文章,请不要吝惜,您的评论和点赞就是对作者最好的感谢。
法学硕士+图表
Wey从202305年开始在LlamaIndex的pr2581中首次集成图数据库、知识图谱和LLM,后来发布了Graph+RAG。
使用ChatGLM构建知识图
这是东方财富的算法工程师陈卓健的大模型实践,10世纪后他会用大量的规则和人力来提取和验证相应的数据,并在20世纪出现相应的深度模型来支持NER完成。学习模型,实体链接在当前大模型时代使用大模型来消歧、注释和训练数据。本文讨论分享工程师的演示。
LLM+NebulaGraph三部曲
在“图技术在LLM中的应用Llama基于知识图谱对大规模语言模型建立索引”一文中,Wey详细介绍了LLM范式是什么、Llama索引如何与模型交互以及嵌入和向量如何影响搜索结果。我做了。知识图如何帮助改善具有挑战性的环境中的搜索结果?
第一部分解释了知识图谱和LLM之间的关系。后续文章《Text2Cypher大规模语言模型驱动的图查询生成》和《图RAG:知识图与LLM搜索增强相结合》分别描述了如何将自然语言转换为查询语言。
我们将任务归类为理解自然语言的意图。
查找实体
在意图和实体中构造查询语句
并且比较GraphRAG和VectorRAG的结果,包含知识图谱的RAG会比单独的向量搜索更加准确。
矢量搜索、关键词搜索、混合搜索如何选择?
基于Wey对LlamaIndex和LangChain的Graph+RAG贡献,海外工程师WenqiGlantz对所有Graph+LLM和RAG方法进行了全面的实验、评估、回顾、总结和分析。“通过七种查询策略,你可以学习如何使用LlamaIndex和NebulaGraph探索知识图谱”是本次实验评估的中文翻译。
哪种查询引擎最适合您将取决于您的具体用例。
当你的数据源中的知识片段是碎片化、粒度化的,你需要对数据源进行复杂的推理,比如从网格中提取实体及其关系,例如欺诈检测、社交网络、供应链管理等,知识图谱查询引擎是更好的选择。没有看到。当嵌入产生虚假相关性并因此产生幻觉时,KG查询引擎也很有用。
如果您需要相似性搜索,例如在向量空间中查找与给定节点相似的所有节点或查找与给定节点最接近的所有节点,则向量查询引擎可能是选择。
如果您需要快速响应的查询引擎,向量查询引擎可能是更好的选择,因为它们通常比KG查询引擎更快。即使没有嵌入,任务提取也可能是KG查询引擎中高延迟的主要原因。
如果需要高质量的案,结合KG查询引擎和向量查询引擎优点的自定义连接查询引擎是选择。
适合初学者
使用NebulaGraph的第一步是安装和部署。如何提供保姆级的安装教程,让新用户可以按照分步教程完成初始部署和安装?可能没有人比《堕落之鸟》更适合回这个题了。
使用星云图
在NebulaGraph技术社区年度征文活动上,飞鸟独家更新了五篇非常适合初学者的部署和安装相关文章。
《选择NebulaGraph安装方法》不仅提供了编译、Docker编译、独立部署、集群部署、Docker-Compose安装、K8s安装、Docker集群部署七种安装方法,还提供了这七种方法的优点。下图仅供参考。
编译安装
编译并安装Docker
独立安装
集群安装
安装Docker-Compose
K8s安装
码头集群
部署和维护困难
重要资源
高可用、高性能
飞鸟后来的更新《NebulaGraph备份管理》详细介绍了备份工具BR的使用流程。与Linux等本地环境不同,如何备份容器化部署也是一些社区成员关心的题。《如何使用Docker-Compose部署方式备份和恢复NebulaGraph》是一篇非常详细的容器部署备份文章。
无独有偶,《搭建K8s集群并使用RKE部署NebulaGraph》也是从K8s开始,用文章来讲解他们是如何使用RKE搭建NebulaGraph的。《ARM架构上NebulaGraph330和NebulaStudio370搭建指南》温暖了ARM用户,让NebulaGraph和NebulaGraphStudio在ARM上的使用变得简单。
当你具备了良好的NebulaGraph运行环境后,可以尝试《使用NebulaGraphExchange通过Hadoop导入OwnThink数据》来了解将千亿知识图谱从OwnThink导入NebulaGraph并使用该知识图谱构建Hadoop的整个过程。能。你自己的智能机器人。《NebulaGraph开源社区贡献的关系可视化讨论》一步步教授如何基于提供的数据集使用可视化探索工具来进行推导、查询和观察数据之间的关系。
上面提到的使用NebulaGraph的案例都是从0到1构建一个空的图数据库,但是如果已经有数百亿、数千亿的数据,我们如何平滑切换到NebulaGraph模式呢?《重新构想图数据库系统之路》为时间紧迫且不了解现有技术堆栈的社区合作伙伴提供了方向。重建应按如下方式进行
外部接口排序对系统所有外部接口进行排序,包括接口名称、接口用途、请求量QPS、平均耗时、调用者等。
老系统关键流程总结老系统配置架构图输出、重要界面流程图输出
梳理一下您的环境哪些项目、应用部署、MySQL、Redis、HBase集群IP、当前线上部署分支需要转换?
触发场景接口如何触发从业务使用场景出发,每个接口都应该被一个或多个场景覆盖,以方便后期的功能验证。
转换方案各接口可行性分析、转换方法、转换成图的方法、
新系统设计方案输出架构图和核心流程图。
善用NebulaGraph
当你有了良好的运营环境后,你就面临着如何在NebulaGraph中表示你的业务的题。也许你来自MySQL这样的关系数据库来探索图数据库的奇妙,或者也许你来自Neo4j和JanusGraph来见识NebulaGraph的高性能。此时,一份周到的高级用户指南将是完美的。
当谈到高级使用时,还有什么比经常与用户互动、了解他们的使用习惯,然后概述产品实践更合适的呢?《使用技巧|如何在图数据库NebulaGraph中实现高效建模、快速导入和性能优化》由NebulaGraph产品总监出品。其中包括各种优化指南,从图形建模开始。令人惊讶的是,VID大小也密切相关。更不用说拥有多个硬盘会影响写入速度。本文包括实现高性能的各种技术。如果您是初学者,阅读本文一定会有所收获。
除了产品实践之外,NebulaGraph的首席开发人员和布道者还帮助大家从执行计划角度了解查询语句的生命周期,了解执行运算符的作用,了解语句执行中的耗时点存在于哪里。
“细化和协调行动计划”
“我们从实际案例出发,全面解读行动方案。”
说完的使用指南,我们来看看其他朋友是如何使用NebulaGraph的。今年开始的HappyOfficeHour是的用户对话活动,活动期间NebulaGraph资深用户与大家分享他们的使用态度,您可以通过相关会议纪要了解更多NebulaGraph的实用技术。正如第一次会议指出的那样,“我们如何提高元性能?”想提高TTL去除率吗?主备集群怎么做……《欢乐办公时光》第一期会议纪要,帮助您了解大公司面临的业务题以及如何更好地解决和预防。
内存管理
资源使用,尤其是内存使用,是社区用户最关心的题。NebulaGraph应该在哪里使用内存?这是小小凯乐乐将在《NebulaGraph中的内存探索》一文中讨论的话题。
NebulaGraph内存的初步探索
数据库通常在多个方面使用内存,例如线程池、缓冲区、索引等。在《探索NebulaGraph的内存》中,作者首先讲了常规数据库的内存消耗,然后讲了NebulaGraph的工作流程,最后用实验数据来看了数据获取后nebula-storage内存占用的变化。
本文没有提及查询时的内存消耗,但是通过本文我们了解了Nebula-storage存储的一些内存消耗点。一些结论摘录如下
Nebula会忽略重复插入的数据。
如果你想了解荣耀MagicBook142023款,可以通过以下方式进行了解。
首先,您可以关注荣耀或社交媒体,了解最新的产品发布信息和动态。
其次,您可以通过查阅专业技术媒体或技术博客中的评测文章和视频,获得有关性能、外观和用户体验的更详细信息。
您还可以参加荣耀社区或相关技术论坛,与其他用户交流,分享经验,获得更全面的了解。
最后,您可以到实体店或电商,通过现场体验或购买的方式直接体验产品的质感和功能。
关于2023前端技术博客和2023前端开发技术的相关信息就介绍到这里,如果你还想了解更多详细内容,记得收藏关注本站。
发表评论