3作者: azulgarzar4 个月前原帖
TimeCopilot 是一个开源的预测代理,它结合了大型语言模型的强大功能与最先进的时间序列基础模型(如 Amazon Chronos、Salesforce Moirai、Google TimesFM、Nixtla TimeGPT 等)。<p>它自动化并解释复杂的预测工作流程:您可以用自然语言查询数据,比较不同模型,构建集成模型,并询问预测结果的原因。其目标是使时间序列分析更加易于访问,同时保持专业级的准确性。<p>我们在 Salesforce 的 GIFT-Eval(包含 144,000 个序列和 1.77 亿个数据点)上进行了基准测试,结果在整体排名中位列第一(CRPS 指标),并且已经吸引了开源预测社区的早期用户。<p>代码库:github.com/azulgarza/timecopilot 文档:timecopilot.dev<p>我们非常希望得到 HN 社区的反馈,特别是您希望看到的用例,以及我们如何使高级预测更加实用和易用。
7作者: ronef4 个月前原帖
大家好!我是 Ron,来自 NixOS 基金会,正在开发 Flox。刚刚参加完今年的 NixCon,非常兴奋地在这里分享一些消息 :) 截至今天,NVIDIA 正式认可 Canonical、SUSE、CIQ 和 Nix(通过 Flox)作为 CUDA 的支持发行商。完整博客请见 - [https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms](https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms) 这对 Nix 社区来说是一个巨大的胜利。多年来,虽然在 Nix 上使用 CUDA 是可能的,但过程非常痛苦——构建可能需要几个小时,而由于 NVIDIA 的许可要求,重新分发预构建的二进制文件受到限制。 NVIDIA 与主要 Linux 发行版的日益互动反映了该公司在与开源社区合作方面的演变。现在,NVIDIA 首次允许这些供应商直接从他们的包仓库中打包和提供 CUDA 工具包及 CUDA 加速的包。 这意味着 Ubuntu 用户可以通过 `apt` 获取 CUDA,SUSE 用户可以通过 `zypper`,Rocky Linux 用户可以通过 `dnf`,而 Nix 用户只需在他们的 Nix 表达式、`shell.nix` 文件或 flakes 中声明 CUDA 依赖项即可。 在这四个平台上,开发者现在可以拉取预构建、预补丁的 CUDA 软件,包括像 PyTorch、TensorFlow、TensorRT、OpenCV、ffmpeg 等大型包。 在 Nix 上(我个人的偏见),设置非常简单:只需将 Flox 的缓存添加为 `nix.conf` 或 `configuration.nix` 中的 `extra-substituter`。
1作者: gitgallery4 个月前原帖
Alexandria 是一个类似于代码检查或类型检查的工具,配备了规则引擎,帮助您保持文档的最新状态。只需将其添加到您的预提交检查中,您的大型语言模型(LLM)将会处理其余的工作。https://github.com/a24z-ai/a24z-memory
8作者: HammadB4 个月前原帖
大家好,我是Hammad,Chroma的首席技术官。 我们一直在与构建软件工程堆栈的AI系统团队紧密合作——包括自动补全机器人、PR审查代理和代码助手。我们发现一个共同的痛点:这些系统在处理依赖关系时常常出现幻觉。 虽然大多数公司使用grep、语义搜索和基于抽象语法树(AST)的工具对主要代码库进行索引,但依赖关系往往被忽视。尽管依赖关系通常占据了运行代码的大部分。将源代码引入代理的过程往往很困难:需要获取压缩包、进行缓存,并避免延迟峰值。 因此,我们构建了Package Search MCP。它能够从NPM、PyPI、Go和Crates.io中以不同版本提取和索引公共依赖关系。我们的步骤包括: 1. 使用Tree-sitter解析和分块代码 2. 使用Qwen3-Embedding嵌入数据 3. 将每个版本索引到Chroma Cloud的独立分支中 4. 通过MCP为代理提供grep和语义搜索工具 只需将这个MCP服务器添加到您的编码代理或AI SDK(如Cursor、Claude、Codex、OpenAI等)中,您的代理就会立即在处理依赖关系方面变得更加智能。只需提示它“使用包搜索”,它就会知道该去哪里查找。 我们很期待看到大家用它构建的内容——快来试试吧,告诉我您的想法!
4作者: sreenathmenon4 个月前原帖
我一直在终端和 ChatGPT / Claude / Gemini 之间切换以获取代码帮助。于是我构建了 llmswap 4.1.1 来解决这个问题。 现在我只需输入:llmswap generate "我需要的命令" 以下是一些节省数小时的真实示例: 网站紧急情况 - 需要调试压缩日志: llmswap generate "在 gzipped nginx 日志中查找错误" 得到的结果是:zgrep -i "error\|fail" /var/log/nginx/*.gz | head -50 那个大家都在谷歌搜索的正则表达式: llmswap generate "从日志文件中提取所有 IP 地址" 得到的结果是:grep -oE '([0-9]{1,3}\.){3}[0-9]{1,3}' access.log | sort | uniq -c 复杂的配置?没问题: llmswap generate "用于 Prometheus Grafana 监控的 docker compose" > stack.yml 生成了 80 行生产就绪的 YAML。 杀手级功能 - 在 vim 内部工作: :r !llmswap generate "MongoDB 创建具有读/写权限的用户" 得到的结果是:db.createUser({user:"appuser",pwd:"password",roles:[{role:"readWrite",db:"myapp"}]}) 代码出现在光标处。无需浏览器,无需复制粘贴。 支持 8 个提供商(OpenAI、Claude、Gemini、Groq、IBM Watson、Ollama 等)。可以使用您已有的 API 密钥,无需额外订阅。 GitHub: [https://github.com/sreenathmmenon/llmswap](https://github.com/sreenathmmenon/llmswap) PyPI: [https://pypi.org/project/llmswap/](https://pypi.org/project/llmswap/)