返回首页
最新
我越来越担心看到新闻,感觉美国已经到了无法回头的地步。我来到这里寻求一些安慰,但意识到我们在这里讨论的都是科技,而我们所熟知的美国却在慢慢崩溃,这种情况也很反乌托邦。
你好,我想分享一些关于我们在WoolyAI GPU虚拟机中开发的酷炫功能的信息。这个功能使得用户可以在AMD GPU上运行现有的Nvidia CUDA PyTorch/vLLM项目和管道,而无需进行任何修改。机器学习研究人员可以透明地从异构集群中使用Nvidia和AMD GPU。MLOps团队不需要维护单独的管道或运行时依赖。机器学习团队可以轻松扩展计算能力。
请分享您的反馈,我们也在招募Beta用户。
https://youtu.be/MTM61CB2IZc
<a href="https://docs.rerouter.app/" rel="nofollow">https://docs.rerouter.app/</a>
我创建了一个名为 gocd 的小项目,因为我想要一种简单的方法来从 GitHub 的拉取请求中部署更改,而不需要启动一个完整的 CI/CD 堆栈。
这个想法很简单:与其设置运行器、服务器或云基础设施,不如直接在你的笔记本电脑(或小型服务器)上运行它。它与 GitHub 的问题和拉取请求集成,自动化构建和部署,并且使得远程访问正在运行的应用变得简单(例如,通过类似 Tailscale 的工具)。
对我来说,这解决了以轻量级的方式快速测试和部署来自问题/拉取请求的代码的问题。现有的 CI/CD 系统在这种用例下感觉有些过于复杂。
代码库: [https://github.com/simonjcarr/gocd](https://github.com/simonjcarr/gocd)
我很希望能得到社区的反馈——特别是关于这种最简化的 CI/CD 方法是否对其他人有用,以及你希望在这样的工具中看到哪些功能。