嘿,HN,我是Fedor(独立创始人)。经过大约20年的观察开发者与Git的斗争,我正在构建Branching。
Branching可以实时将你的本地编辑流式传输给团队成员——无需手动推送/拉取。它与Git兼容,并且可以离线使用。
你可能会关心的几点:
- 团队成员可以即时看到彼此的更改,而不是在PR大小的批次中查看。
- 冲突会在上下文仍然清晰时尽早显现(LLM辅助合并是实验性功能,默认关闭)。
- 使用相同的GitHub远程仓库,因此无需迁移。
今天发布的功能:
- VSCode扩展 + 桌面应用(适用于macOS / Windows / Linux)
- 3个小型产品团队已经在生产环境中使用它1到6个月。
- 快速演示视频 - [https://branching.app](https://branching.app)
我们正在寻找5-10个团队加入封闭测试 - [https://branching.app](https://branching.app)
独立开发者?免费Jujutsu GUI:[https://visualjj.com](https://visualjj.com)(保持免费)
问我任何问题 - “始终同步的提交树”是否适合你的工作流程?
返回首页
最新
我一直喜欢关注游戏新闻、硬件等,可能比实际玩游戏还要喜欢;)<p>随着年龄的增长,我的时间变得更加有限,因此我会保持打开我想玩的游戏的标签,并查看需要购买哪些硬件才能玩这些游戏。<p>因为我不想通过 Google 表格来跟踪我的游戏清单和支持的平台,所以我创建了这个小工具。<p>额外福利:你可以与他人分享你的游戏清单!<p>如果大家喜欢,我还想提供“这是你需要的 PC 配置来玩你的游戏”。
DuckDB、Bigquery、Snowflake作为后端。<p>基于Trilogy,采用修改过的SQL语法,并嵌入语义绑定层以实现查询解析。<p>支持临时查询和可视化。<p>可选的AI加速。(自带API密钥)<p>最小可行产品,欢迎反馈。
嘿,HN,
我很高兴与大家分享我正在开发的桌面应用程序 AnyLM。我喜欢使用本地大型语言模型(通过 Ollama 和 LMStudio),但常常希望能有一个更精致、统一的用户界面,类似于 ChatGPT 提供的那样,可以将我的所有对话集中在一个地方。
AnyLM 的目标是通过提供一个单一的本地应用程序(目前支持 Windows,未来还计划支持 macOS 等)来解决这个问题,让用户能够与来自 LM Studio/Ollama 的本地模型以及 OpenAI、Anthropic 和 Google 等 API 提供商的模型进行交互。
你可以在这里查看并下载:anylm.app
期待听到你的想法和反馈!