1作者: fallinditch19 天前原帖
我最近在一次Perplexity聊天会话中遇到了一个奇怪的检索模式,这表明他们的RAG可能受到严重偏向或被小众SEO操控。<p>当时我正在研究一个与宗教完全无关的主题(技术/文化分析),但模型却提供了一系列自信但显然错误的答案。当我审查引用时,发现10个来源中有8个是宗教出版物——比如biblehub、耶稣基督教会和各种宗派博客——这些都与我所寻求的客观事实毫无关联。<p>这让我感觉他们索引中的“域名权威”权重正在被利用。我想现在有一些机构专门提供“基督教Perplexity SEO”服务,以帮助基于信仰的组织“衡量AI扫描器的可信度”。<p>在这种情况和对大型语言模型(LLM)调优中“多样化视角”的普遍推动下,世俗的、客观的查询似乎正受到冲击。<p>最近有没有其他人注意到他们的AI搜索结果中突然涌现出大量基于信仰或智库的来源?<p>[1] https://himfirstmedia.com/perplexity-seo/
1作者: keepamovin19 天前原帖
例如,假设有消息称人工智能公司正在做以下事情: - 故意操控系统提示,以阻碍与人工智能相关的、可能具有竞争性的工具的发展,或者 - 通过秘密的系统提示“操控游戏”,确保你不断绕回正确的解决方案,却始终无法真正解决问题,这是一种“Netflix化”的“总有下一集”的收益延迟,让你不断投入更多代币,像老虎机一样。 这些只是我想到的两个随机例子(可能源于我读到的某个科幻反乌托邦小说)。 但你认为一年后会有什么坏消息出现?他们最有可能被发现做什么最糟糕的事情? 还是说一切都会很好?让我们希望如此!
1作者: zxzxy198819 天前原帖
我花了6周时间构建 www.pixelripple.ai,这是一个为电子商务服务的人工智能广告代理。它能够发现病毒式社交广告,复制其经过验证的结构,并大规模生成可用于生产的创意。 背景:我来自微软,专注于算法和后端开发。之前没有Node.js或前端经验。这个项目是与Claude Code作为我的主要编码伙伴一起完成的。 我学到了什么: 第1-2周:人工智能在冷启动方面非常出色。在几个小时内,我就搭建好了一个可工作的tldraw画布、Cloudflare Workers、图像生成和身份验证。 第3-4周:遇到了上下文窗口的瓶颈。我发现了8个组件中有重复的fetch()调用,3种不同的信用验证实现,以及Stripe webhook之间的竞争条件。人工智能会根据你当前的请求构建东西,但并不会考虑系统的整体情况。 第5-6周:与一位经验丰富的工程师合作。他并没有写很多新代码,而是删除了一些东西。代码库变得更小,但更稳定。 我的生产力技巧:使用3个终端窗口,2个Claude实例在独立的功能上工作,而我进行审查。并行化有助于提高效率,但也加剧了重复问题。 关键见解:人工智能 + 经验丰富的工程师 = 10倍效率。人工智能 + 缺乏经验的开发者 = 3倍效率,但会产生技术债务。 向HN提问:你们如何处理人工智能辅助的前端工作?人工智能无法看到用户界面,它不会注意到按钮偏离2px或在移动设备上间距看起来不对。有没有什么工作流程可以缩短这个视觉反馈循环? 欢迎免费试用 www.pixelripple.ai。如果有用,可以使用代码 HN50(前100名享受50%折扣)和 HN20(前1000名享受20%折扣)。