2作者: Paralus大约 2 个月前原帖
当你的Python代码出现错误时,你会看到一个追踪信息。你可以看到代码失败的位置,但几乎从来不知道失败的原因——那一刻内存中到底发生了什么。 我创建了F. Incantatem来解决这个问题。只需添加一个装饰器,当你的代码崩溃时,一个大型语言模型(LLM)会捕获完整的上下文——堆栈跟踪、源代码、实际变量值——并解释出错的原因以及如何修复它。 它可以作为装饰器、命令行工具或IPython扩展进行集成。支持OpenAI、OpenRouter,或通过Ollama在本地使用。谨慎模式会在传输前自动屏蔽秘密信息和个人身份信息(PII)。没有核心依赖。 我分享这个是因为我一直在想,其他人一定也在调试这些同样棘手的错误。欢迎提问或反馈。 另外值得注意的是,还有一些工作需要完成(请参见路线图)。 仓库: [https://github.com/aguilar-ai/fincantatem](https://github.com/aguilar-ai/fincantatem) PyPi: [https://pypi.org/project/fincantatem/](https://pypi.org/project/fincantatem/)
6作者: justintorre75大约 2 个月前原帖
我开发了一个工具,可以同时向GPT、Claude、Gemini、Llama、Grok和DeepSeek展示自定义的电车难题,并实时传输它们的伦理推理。 一些有趣的发现: - 这些模型在经典困境上表现出惊人的分歧。 - 模型会保护它们的创造者(萨姆·阿尔特曼与达里奥·阿莫代)。 - 即使与自身比较,罪犯的价值也并不相等。 试试这个工具:<a href="https:&#x2F;&#x2F;aitrolleyproblem.com" rel="nofollow">https:&#x2F;&#x2F;aitrolleyproblem.com</a>