1作者: briancr大约 1 个月前原帖
这个网站是为机器学习新手准备的,我发现图形化的展示确实有助于揭示模型的具体工作原理。我正在考虑将其应用于帮助高中机器人团队将机器学习融入他们的编程中。 这个网址提供监督学习的功能,但也有一个页面专门用于无监督学习: <a href="https:&#x2F;&#x2F;cdeeply.com&#x2F;tabular_encoding.html" rel="nofollow">https:&#x2F;&#x2F;cdeeply.com&#x2F;tabular_encoding.html</a> 任何反馈都非常欢迎!(网址 -> 生成随机数据 -> 提交以尝试)。
1作者: scanosss大约 1 个月前原帖
SBOM Workbench v1.19 发布了。 新功能: • 直接导入原始结果 • 导入带源代码的项目 • CycloneDX 输出与 Dependency Track 更加兼容 获取链接: https://github.com/scanoss/sbom-workbench/releases/tag/v1.19.0
6作者: Jetwu大约 1 个月前原帖
嘿,HN!我希望能找一些人来试试我为学习DSPy而制作的小项目!我一直是小说和网络小说的忠实读者,对两个问题充满好奇:大型语言模型(LLMs)如何能够根据读者反馈逐步学习写得更好,以及哪些LLMs在创意写作方面实际上表现最佳(研究基准很酷,但不一定能转化为现实世界的使用)。 这正是我创建 narrator.sh 的原因!这个平台接受用户输入的小说创意,然后通过使用 DSPy 根据真实的读者反馈逐章生成连载小说。我使用了链式思维(CoT)和并行模块来分解写作任务,精炼模块和将LLM作为评判者的奖励函数,以及SIMBA优化器来重新编译之前章节的用户评分,以改善后续章节。 与其使用合成基准,我追踪真实的读者指标:阅读时间、评分、书签、评论和回访。这创建了一个排行榜,显示哪些模型实际上写出人们想要完成的引人入胜的小说。 目前,关于创意写作LLMs的评估主要来自作者的视角(例如OpenRouter对Novelcrafter等工具的使用数据)。但最终决定好坏的还是读者,而不是作者。 你可以在这里试试:<a href="https://narrator.sh" rel="nofollow">https://narrator.sh</a>。这是当前的排行榜:<a href="https://narrator.sh/llm-leaderboard" rel="nofollow">https://narrator.sh/llm-leaderboard</a>(现在有点空荡荡的,因为用户不多,哈哈)。 (友情提示:由于我在Reddit上发布了寻找测试者的帖子,导致一些人对提示进行了创意发挥,因此有一些成人内容。我正在努力丰富内容!)