1作者: vladimir_spirin5 个月前原帖
策略:通过复杂的套利方向重新平衡代币之间的投资配置。 什么是套利方向?复杂套利发生在一个代币圈内。由于圈的特性,资金可以在一系列交易后返回到初始代币,而起始代币可以是圈内的任何代币。 返回初始代币有两个方向:正向和反向。如果一个方向是盈利的,那么另一个方向肯定不是盈利的。 我们将套利圈定义为一系列向量,每个向量都有其盈利方向。从技术上讲,向量是一个交易对,具有方向/侧面和圈的投资回报率(ROI%)。一组盈利圈可以分解为盈利向量。 一些向量在不同的盈利圈中重复出现。让我们找出最佳向量!什么是“最佳”?它是出现在不同盈利圈中的频率与其所属圈的ROI%的组合。 我发现加权平均指标在衡量这两个标准方面是有效的: - 风险 - 利润 仅执行最佳向量交易可以基于复杂套利分析提供保障。 在市场上使用最佳盈利向量有不同的策略。我的机器人在我已分配资金的交易对上执行向量。一个有趣的方面是,资金分配是通过执行我首次存入交易所的代币的向量来管理的。 资金的分割和合并会根据市场价格差异自动进行。这一策略对于持有投资也很有效。有些日子我没有找到ETH的盈利向量。我没有进行任何交易,这是一种正确的做法,因为由于市场条件,最佳的做法是持有ETH。
14作者: rickybule5 个月前原帖
印度尼西亚目前正处于混乱之中。今天早些时候,政府封锁了Twitter和Discord的访问,因为他们知道消息主要通过这些渠道传播。通常我们可以使用Cloudflare的WARP来绕过封锁,但就在今天,他们也封锁了该服务的访问。我们应该使用什么替代方案呢?
2作者: ragp5 个月前原帖
大家好!<p>我在 Claude Code 中花了很多时间使用 git 工作树来并行处理任务。我制作了这个工具,以便更轻松地创建和管理工作树,减少心理负担。<p>可以简单地创建、列出和删除工作树,并配置复制 .env 文件和其他文件,运行安装命令,以及将 IDE 打开到工作树中。<p>希望能得到反馈。欢迎随时提出问题或提交 PR! <a href="https://github.com/raghavpillai/branchlet" rel="nofollow">https://github.com/raghavpillai/branchlet</a>
4作者: windsor5 个月前原帖
大家好!我们是Dedalus Labs的Windsor和Cathy(<a href="https://www.dedaluslabs.ai" rel="nofollow">https://www.dedaluslabs.ai</a>),一个为开发者构建自主AI应用的云平台。我们的SDK允许您将任何大型语言模型(LLM)连接到任何MCP工具——无论是本地的还是由我们托管的。无需Docker文件或YAML配置。 <p>这里有一个演示:<a href="https://youtu.be/s2khf1Monho?si=yiWnZh5OP4HQcAwL&t=11" rel="nofollow">https://youtu.be/s2khf1Monho?si=yiWnZh5OP4HQcAwL&t=11</a></p> 去年十月,我(Windsor)试图在云中构建一个有状态的代码执行沙箱,LLM可以调用工具。这是在MCP发布之前,老实说,构建这个过程非常烦人……我当时一直在想:“为什么我不能直接将`tools=code_execution`传递给模型,让它……正常工作呢?” <p>即使有了MCP,您仍然需要运行本地服务器,并在OpenAI、Anthropic、Google等之间手动处理API认证和格式化,然后才能发布任何东西。每次更改都意味着重新部署、网络配置,以及在AWS上浪费的几个小时。在构建产品时,花费几个小时阅读文档和处理云设置可不是您想要的!</p> Dedalus将这一过程简化为一个API端点,因此原本需要两周的设置现在只需五分钟。我们允许您将可流式传输的HTTP MCP服务器上传到我们的平台。一旦部署,我们提供与OpenAI兼容的SDK,您可以将其直接集成到代码库中,以使用MCP驱动的LLM。我们的目标是让任何人、任何地方都能为他们的LLM配备强大的功能调用工具。 <p>您编写的代码大致如下:</p> <pre><code> python client = Dedalus() runner = DedalusRunner(client) result = runner.run( input=prompt, tools=[tool_1, tool_2], mcp_servers=["author/server-1", "author/server-2"], model=["openai/gpt-4.1", "anthropic/claude-sonnet-4-20250514"], # 默认使用列表中的第一个模型 stream=True, ) stream_sync(result) # 流式返回结果,也支持工具调用 </code></pre> 我们的文档起始于<a href="https://docs.dedaluslabs.ai" rel="nofollow">https://docs.dedaluslabs.ai</a>。这里有一个简单的Hello World示例:<a href="https://docs.dedaluslabs.ai/examples/01-hello-world" rel="nofollow">https://docs.dedaluslabs.ai/examples/01-hello-world</a>。有关基本工具执行的更多信息,请参见<a href="https://docs.dedaluslabs.ai/examples/02-basic-tools" rel="nofollow">https://docs.dedaluslabs.ai/examples/02-basic-tools</a>。网站上还有许多其他示例,包括使用Open Meteo MCP进行天气预报的复杂示例:<a href="https://docs.dedaluslabs.ai/examples/use-case/weather-forecaster" rel="nofollow">https://docs.dedaluslabs.ai/examples/use-case/weather-forecaster</a>。 <p>MCP领域仍然存在许多问题,这一点毫无疑问。其中一个主要问题是认证(我和我的团队开玩笑说MCP中的“S”代表“安全”)。目前,MCP服务器被期望同时充当认证服务器<i>和</i>资源服务器。这很难正确实现,对于服务器开发者来说,这要求太高了,也就是说,人们只想暴露一个资源端点,完成即可。</p> 尽管如此,我们对MCP持乐观态度。当前的不足并非不可弥补,我们预计未来的修订将解决人们目前的许多顾虑。我们认为,有用的AI代理必然会成为习惯性工具调用者,而MCP是为模型配备工具的相当不错的方式。 <p>我们还没有达到去年十月我想要的有状态代码执行沙箱,但我们正在努力实现!发布安全和有状态的MCP服务器是我们的优先事项之一,我们将在下个月推出我们的认证解决方案。我们还在开发一个MCP市场,让人们能够将他们的工具货币化,而我们负责账单和收益分成。</p> 我们非常重视开源,目前已经有以下这些SDK(MIT许可证): <p><a href="https://github.com/dedalus-labs/dedalus-sdk-python" rel="nofollow">https://github.com/dedalus-labs/dedalus-sdk-python</a></p> <p><a href="https://github.com/dedalus-labs/dedalus-sdk-typescript" rel="nofollow">https://github.com/dedalus-labs/dedalus-sdk-typescript</a></p> <p><a href="https://github.com/dedalus-labs/dedalus-sdk-go" rel="nofollow">https://github.com/dedalus-labs/dedalus-sdk-go</a></p> <p><a href="https://github.com/dedalus-labs/dedalus-openapi" rel="nofollow">https://github.com/dedalus-labs/dedalus-openapi</a></p> 我们非常希望听到您对阻碍您集成MCP服务器或在当前工作流程中使用工具调用LLM的最大障碍的看法。 感谢大家!