返回首页
最新
Deepseek到底是如何做到这一点的?他们是否只是将Claude的回答输入到自己的模型中,作为训练数据来提高推理能力?
具体来说,如何在一个模型的输出上训练另一个模型?这里涉及到哪些工程技术?
我希望能详细了解一下这个过程是如何在大规模上执行的。
背景故事:
Anthropic最近指控Deepseek、Minimax和Moonshot使用大量虚假账户与Claude进行交流,并利用这些输出训练模型,称之为“蒸馏攻击”。
现实情况:他们没有。但这项技术是真实的。我正在构建一个人工智能销售开发代表(SDR)平台,想与HN社区分享这个技术栈。
项目:Babuger
Babuger自动化整个外呼/内呼生命周期。它通过训练你最佳销售代表的脚本来筛选潜在客户、处理异议,并全天候安排会议。
问题:传统的SDR团队成本高昂(每年15万美元),人员流动率高,并且忽视“死”线索。
解决方案:一个人类协调者管理20多个专业的人工智能代理。
结果:90%的任务自动化和70%的被忽视管道的响应率。
技术栈
我保持现代和模块化,以处理复杂的多步骤推理:
代理协调:LangGraph。这对于处理非线性对话流程(循环、条件路由和状态管理)至关重要,而标准的有向无环图(DAG)无法处理这些情况。
大型语言模型框架:LangChain。用于提示模板、输出解析和整合各种工具集(Gmail/Cal.com/HubSpot)。
前端:Next.js。管理仪表板、实时电子邮件线程预览和实时管道分析。
我为什么要发布
我在寻找“HN压力测试”。使用LangGraph的代理方法是否适合扩展到每月超过1万次的互动,还是应该考虑更自定义的状态机?
查看一下:Babuger.com