返回首页
最新
我喜欢像 Coolors.co 和 Adobe Color Wheel 这样的调色板生成器。但它们专注于调色板的生成,这可能使人难以判断“在代码或文档中看起来会是什么样子?”因此,我搭建了一个小型的实验平台,以帮助我在另一个项目上。现在的工具还不成熟,但我展示这个是想获得对这个想法的早期反馈。这是你在选择文档的颜色或字体时会使用的工具吗,还是你会选择其他方式?
对大型语言模型(LLM)行为的批评,最终演变为对其训练代码的批评,以及对产生这些代码的文化的反思。
展示HN:BRS-XSS - 专业的XSS扫描器(Python,模块化) - https://github.com/EPTLLC/brs-xss
现在我发现,与公司其他开发人员合作变得越来越困难,因为我们似乎都生活在一个充满人工智能的混乱之中。
我在工作中使用大型语言模型(LLMs),认为它们可以很有用,但我仍然会遇到一些连强大的Claude都无法解决的问题,这时我会想:“这个人对这个领域有很多知识,或者可能以前见过类似的错误,也许他们会知道!”
但结果往往不是这样!即使他们曾经知道,花费脑力去记住这些信息所需的精力也太宝贵了,他们宁愿把我的问题直接扔回他们选择的LLM中,然后用那个来回复我。另一个可以接受的回答是问我是否尝试过询问LLM该怎么做,因为也许那样就能解决问题。为什么还要费心呢?不如不断按下虚拟老虎机的生成按钮,直到得到一个有效的答案。
我曾有一个来自其他团队的人主动提出提交代码来修复我们遇到的问题,审查后我惊讶地发现,这几乎是我们自己向LLM询问后尝试并失败的内容的逐字复制。这是在回答“我们是否尝试过使用LLM来解决这个问题”时回答“是”的情况下发生的,但你永远不知道,这个人这次可能问对了方式……
我最喜欢的另一个例子是被问到在我们开始构建之前,是否已经用AI检查过我们的“设计”。这可能是最基础的REST API设计,但如果我们遗漏了什么呢?我们怎么知道?如果我们请求AI的帮助,它还会帮我们吗?
合作在哪里?学习和与他人分享的愿望在哪里?我们对自己所做的事情的信心在哪里?我们到底在这里做什么?