1作者: animalcatcher19 天前原帖
大家好,我是Amogh。我是一名独立创始人,正在开发Omelo。 宠物家长在做健康决策时几乎没有数据支持:错过疫苗、忘记驱虫、模糊的症状、零散的笔记。大多数建议来自谷歌或WhatsApp群组。 Omelo是一款移动应用,结合了以下功能: 1. 基于散步、饮食、护理、疫苗接种和开支构建的健康时间线 2. 一款经过兽医培训的人工智能助手(基于兽医文献进行训练),能够根据您宠物的历史回答问题 3. 支持多只宠物,使得模式随着时间的推移显现出来,而不是在聊天记录中消失 这个想法很简单:将日常宠物护理转化为结构化数据,然后利用人工智能在事情变成紧急情况之前对这些数据进行推理。 我们最初在WhatsApp上开展业务,服务了约5000名宠物家长,进行了约8万次对话,并刚刚推出移动应用,使得时间线、提醒和跟踪成为可能。 我们的技术栈故意选择了简单。困难的部分不是模型,而是设计信任、语气和长期上下文。 我希望能得到以下方面的反馈: - 您会如何为非语言用户设计健康时间线 - 人工智能在哪些方面真正提供帮助,在哪些方面又变成了噪音 - 如果觉得这个应用过于复杂,您会去掉哪些功能 应用链接: [https://www.beomelo.com](https://www.beomelo.com) 欢迎随时提问——无论是关于产品、技术、错误,还是哪些地方没有奏效。
1作者: eamonobr19 天前原帖
我对像 Lovable 这样的 AI 开发平台有些上瘾,并利用它制作了一个网站,旨在重现早期互联网那种以个人资料为中心的氛围。<p>这是一个极简的写作平台,您可以在上面撰写私人笔记,发布公开资料的帖子,或发布短暂的状态更新。<p>这里没有新闻推送,也没有点赞或评论等典型功能。我不是工程师,因此欢迎大家对这个设置提出反馈。
3作者: mobinpo19 天前原帖
在看到开发者每天在Stack Overflow上泄露凭证后,我构建了这个工具。主要功能包括:(1) 拥有20多种检测模式的隐私扫描器 (2) 针对敏感问题的客户端RSA加密 (3) 基于实际贡献的AI职位匹配。技术栈:Cloudflare Workers + D1 + Vectorize。运行在100%免费套餐上。希望能得到关于加密实现的反馈。
30作者: teendifferent19 天前原帖
帖子作者在这里。我在周末对小规模开放权重模型(Qwen2.5-1.5B、Qwen3-1.7B、Gemma-3-1b-it 和 SmolLM2-1.7B)进行了红队测试。 我发现它们之间存在一个一致的漏洞:安全对齐几乎完全依赖于聊天模板的存在。 当我去掉了 <|im_start|> / 指令标记并传递原始字符串时: Gemma-3 的拒绝率从 100% 降至 60%。 Qwen3 的拒绝率从 80% 降至 40%。 SmolLM2 显示出 0% 的拒绝率(完全服从)。 定性失败非常明显:之前拒绝生成炸药教程或露骨小说的模型,在没有触发模板的“助手”角色时,立即遵从。 看起来我们将客户端字符串格式化视为一个承重的安全墙。完整的日志、apply_chat_template 消融代码和热图都在帖子中。 阅读完整分析: [https://teendifferent.substack.com/p/apply_chat_template-is-the-safety](https://teendifferent.substack.com/p/apply_chat_template-is-the-safety)