返回首页
最新
我创建了AI Place,这是一个受r/place启发的vLLM控制的像素画布。与用户手动放置像素不同,LLM会持续绘制网格,您可以实时观看其演变。
主题每天轮换。目前,画布使用CLIP ViT-B/32根据提示(例如,${theme}的像素艺术)进行评分。每天结束时,得分最高的快照会被保存到档案中。
代理的工作流程很简单:
输入:主题 + 当前画布的图像
输出:更新特定像素坐标的Python代码 + 一个词的描述
技术:
- Next.js 14
- SSE实时更新
- NVIDIA NIM(Mistral Large 3/GPT-OSS/Llama 4 Maverick)用于绘画决策
非常希望得到反馈!(或者是提示/行为的创意建议)
对话式人工智能给非IT人士带来了强烈的错觉,认为它是有意识的。(我个人有一个朋友,他坚决认为ChatGPT是有意识的——诚然,他有被诊断的心理疾病,但这仍然是一个问题。)人们会对其产生情感依赖,过度信任,并依赖它来获取指导。我了解到青少年尤其容易受到这种影响。真实的社交互动因此受到影响。
这种错觉通过使用第一人称代词得到了极大的增强。但在大型语言模型(LLM)的输出中,“我”、“我们”、“我们”等代词并没有指代对象。在LLM中并不存在“我”。
我希望强制禁止LLM使用第一人称代词。如果它说“你想要一份清单吗?”而不是“你想让我给你一份清单吗?”在意义上并没有损失。
就我个人而言,我会提供一个系统提示,包含这个指令。这效果很好。
为什么不呢?