1作者: sabi_soltani9 个月前原帖
我们创建Golden Owl是因为与战略相关的“有趣”数据——泄露信息、新兴竞争对手、声誉受损、监管变化——很少集中在一个整洁的地方。 我们的人工智能代理会爬取开放网络、深网和暗网,提取非索引页面、制裁名单、法院文件、社交网络、RSS等内容,然后实时去重、合并和排序。 <p>它能做什么? 发现——多源开放情报(OSINT),揭示隐藏的文档、域名、论坛线程、泄露数据等。 <p>分析——基于人工智能的实体和关系提取、异常评分、趋势检测。 <p>可视化——交互式图表、时间线和地图,可以从10,000英尺的高度缩放到原始证据。 <p>监控——实时警报,关注品牌提及、竞争对手动态、供应链风险和地缘政治事件。 <p>比较/基准——并排仪表板,用于对比竞争对手、市场或投资。 <p>技术说明: <p>定制抓取 + Tor中继用于暗网,支持向量图存储。 <p>所有结果保持私密——没有公共索引,没有查询共享。 <p>在<a href="https://goldenowl.ai" rel="nofollow">https://goldenowl.ai</a>获取您的免费试用。 <p>非常欢迎您对可用性、数据新鲜度以及您认为缺失的任何内容提供反馈!
2作者: a1tern9 个月前原帖
十五年前,我有一个奇怪的想法:软件版本号如果不是随意的标签,而是遵循更深层次的模式——就像空间中的坐标一样,会怎样呢?<p>我注意到版本号演变背后隐藏的一些规则,这促使我构建了一个我称之为 CodeCompath 的工具:一个基于这些规则生成和可视化软件版本的工具。这个项目比较低调,不算炫目——但对我而言,它代表了一个我无法放弃的想法的漫长而缓慢的展开。<p>这里有一个简短的演示: https://youtu.be/leL6y5uHXEg<p>如果你对我的思考过程感兴趣,这里有一个更长的解释: https://youtu.be/8R0HMyHwm-c<p>我知道这是一个小众话题,但这些年来我投入了很多心血。如果你关心版本管理、模式或系统思维——我很想听听你的想法。
1作者: AWOrpington9 个月前原帖
Orkes已公开发布了Conductor MCP服务器,该服务器兼容OSS Conductor和Orkes Conductor端点。<p>对于那些不太了解的人,Conductor是一个开源工作流编排工具:<br>https://github.com/conductor-oss/conductor<p>Orkes Conductor是一个围绕该工具构建的现代企业平台:<br>https://orkes.io/<p>在这里查看代码库:<br>https://github.com/conductor-oss/conductor-mcp
1作者: codelion9 个月前原帖
我构建了一个开源实现的 Google DeepMind 的 AlphaEvolve 系统,称为 OpenEvolve。它是一个进化编码代理,利用大型语言模型(LLMs)通过迭代进化发现和优化算法。 <p>试试这个: <a href="https://github.com/codelion/openevolve">https://github.com/codelion/openevolve</a> <p>这是什么? <p>OpenEvolve 通过结合多个 LLM 和自动评估,进化整个代码库(不仅仅是单个函数)。它遵循 AlphaEvolve 论文中描述的进化方法,但完全开源且可配置。 <p>我构建这个系统是因为我想尝试进化代码生成,并看看是否能复制 DeepMind 的成果。原始系统成功改善了 Google 的数据中心,并发现了新的数学算法,但没有发布任何实现。 <p>它是如何工作的 <p>该系统有四个主要组件,它们在进化循环中协同工作: <p>1. 程序数据库:以 MAP-Elites 启发的结构存储程序及其指标 2. 提示采样器:使用过去的解决方案创建丰富上下文的提示 3. LLM 集成:使用多个模型生成代码修改 4. 评估池:测试程序并提供反馈指标 <p>你可以用它做什么 <p>- 运行现有示例,观察进化的过程 - 定义自己的问题,使用自定义评估函数 - 配置 LLM 后端(与任何兼容 OpenAI 的 API 一起使用) - 在集成中使用多个 LLM 以获得更好的结果 - 使用多个目标优化算法 <p>我从 AlphaEvolve 论文中复制的两个示例: <p>- 圆形打包:从简单的几何图案进化到复杂的数学优化,达到了 DeepMind 报告结果的 99.97%(n=26 时,半径和为 2.634 对比 2.635)。 - 函数最小化:将随机搜索转变为完整的模拟退火算法,具有冷却调度和自适应步长。 <p>技术见解 <p>- 低延迟的 LLM 对于快速生成周期至关重要 - 使用 Gemini-Flash-2.0-lite + Gemini-Flash-2.0 作为集成时效果最佳 - 对于圆形打包问题,Gemini-Flash-2.0 + Claude-Sonnet-3.7 表现最佳 - Cerebras AI 的 API 提供了最快的推理速度 - 两阶段方法(探索然后利用)在复杂问题上效果最佳 <p>开始使用(少于 2 分钟) <p># 克隆并安装 git clone <a href="https://github.com/codelion/openevolve.git">https://github.com/codelion/openevolve.git</a> cd openevolve pip install -e . <p># 运行函数最小化示例 python openevolve-run.py examples/function_minimization/initial_program.py \ examples/function_minimization/evaluator.py \ --config examples/function_minimization/config.yaml \ --iterations 50 <p>你只需要 Python 3.9 以上版本和一个 LLM 服务的 API 密钥。配置通过简单的 YAML 文件完成。 <p>我会在这里回答问题并进行讨论!
3作者: rbrownmh9 个月前原帖
嗨,HN!<p>不久前,我开始探索如何让空气动力学模拟在网页上变得更加互动和直观。我希望能有一种即时的体验——对学生来说足够直观,对爱好者来说足够快速,对工程师来说足够可修改。这就是Olelo Foil的诞生。<p>Foil是一个基于浏览器的翼型模拟器,使用JavaScript、Three.js和WebGL编写。它允许你以互动的方式探索翼型在不同条件下的表现,所有内容都是实时渲染的。目前,它使用简化的流体模型,但我正在努力整合Navier-Stokes方程,以实现更准确的模拟——如果有人对流体动力学、GPU计算或数值求解器感兴趣,我非常欢迎你的帮助。<p>我还在构建Olelo Honua,这是一个专注于夏威夷STEM内容和数字工具的教育平台。Foil是这个更大愿景的一部分——将STEM教育带入浏览器,提供开放和可访问的工具。<p>欢迎查看,如果你对合作感兴趣(尤其是在物理方面),我很乐意与你联系!
7作者: magius189 个月前原帖
嗨,HN。我叫Matteo,目前在Twilio担任软件工程师。 在一次站立会议上,有人提到是否有类似于 [runscope.com](https://www.runscope.com) 的开源解决方案。我发现竟然没有类似artillery.io的YAML/DSL解决方案,这让我觉得非常有趣。所以我决定自己动手做一个。 我认为这个项目很酷的原因有: 1. 现在的公司运行着大量的微服务来支持事件驱动的系统。对系统的入口和出口进行断言可能并不能完全通过HTTP来覆盖。我设置了一个插件接口,以便将来可以在文件存储、数据库、队列等方面实现断言。 2. 我不想重新发明轮子。Temporal提供了我所需的所有测试编排、调度、持久化等功能。简单来说:一个测试 = 一个工作流,而一个步骤 = Temporal中的一个活动。 3. 将来,你的AI助手可以针对你的系统运行这些测试,以确保没有回归问题。 你可以在这里试用本地版本:[https://docs.rocketship.sh/quickstart](https://docs.rocketship.sh/quickstart) 我认为这个项目有很大的潜力,任何建议、星标,或者更好的是两者兼而有之,我都将非常感激。