1作者: ekvanox大约 1 个月前原帖
我创建了AI Place,这是一个受r/place启发的vLLM控制的像素画布。与用户手动放置像素不同,LLM会持续绘制网格,您可以实时观看其演变。 主题每天轮换。目前,画布使用CLIP ViT-B/32根据提示(例如,${theme}的像素艺术)进行评分。每天结束时,得分最高的快照会被保存到档案中。 代理的工作流程很简单: 输入:主题 + 当前画布的图像 输出:更新特定像素坐标的Python代码 + 一个词的描述 技术: - Next.js 14 - SSE实时更新 - NVIDIA NIM(Mistral Large 3/GPT-OSS/Llama 4 Maverick)用于绘画决策 非常希望得到反馈!(或者是提示/行为的创意建议)
3作者: libertyit大约 1 个月前原帖
对话式人工智能给非IT人士带来了强烈的错觉,认为它是有意识的。(我个人有一个朋友,他坚决认为ChatGPT是有意识的——诚然,他有被诊断的心理疾病,但这仍然是一个问题。)人们会对其产生情感依赖,过度信任,并依赖它来获取指导。我了解到青少年尤其容易受到这种影响。真实的社交互动因此受到影响。 这种错觉通过使用第一人称代词得到了极大的增强。但在大型语言模型(LLM)的输出中,“我”、“我们”、“我们”等代词并没有指代对象。在LLM中并不存在“我”。 我希望强制禁止LLM使用第一人称代词。如果它说“你想要一份清单吗?”而不是“你想让我给你一份清单吗?”在意义上并没有损失。 就我个人而言,我会提供一个系统提示,包含这个指令。这效果很好。 为什么不呢?