返回首页
最新
我开发了MyStats,这是一个基于人工智能的自我发现引擎,能够分析日记条目以提取隐藏的心理模式。<p>演示:<a href="https://mystats-eta.vercel.app" rel="nofollow">https://mystats-eta.vercel.app</a>
GitHub:<a href="https://github.com/kks0488/mystats" rel="nofollow">https://github.com/kks0488/mystats</a><p>主要功能:
- 自由记录日记 → AI提取技能、特质和原型
- 深度心理画像(灵感来源于荣格心理学)
- 基于个人资料生成个性化策略
- 100%本地存储(IndexedDB) - 无后端,无追踪
- 韩语/英语双语输出<p>技术:React 19、TypeScript、Vite、Tailwind、多种AI API(Gemini/OpenAI/Claude/Grok)<p>有趣的部分是“原型检测” - AI根据你对自己的描述识别出“系统架构师”或“反思型成长者”等模式。<p>采用“Vibe Coding”理念构建 - 以AI辅助开发为重点,快速交付。初稿由Gemini撰写,经过Claude Opus 4.5精炼,最终由GPT-5.2 Codex完成。<p>非常希望能得到HN社区的反馈!
嗨,HN,
我发现谷歌地图在我只想知道“那是什么建筑?”或“这里发生了什么?”时,常常显得过于杂乱。
为了解决这个问题,我简单地开发了一个小工具。它通过维基百科的API提供一个干净的界面,根据你的确切位置显示相关的文章。我在英国旅行时一直在使用它,发现它在寻找隐藏的宝藏方面非常有效。
目前这是一个简单的概念验证工具,但我希望能进一步扩展。如果你觉得它有用,或者在你的地点出现问题,请告诉我!
为什么苹果的语音转录如此糟糕?<p>即使在2到3年前,OpenAI的Whisper模型在离线状态下也能提供更好、几乎即时的语音转录,而该模型的大小仅约为500MB。在这样的背景下,很难理解苹果的转录服务为何在强大的在线服务器上表现如此糟糕。<p>以下是我刚刚使用iOS原生应用时的真实示例:<p>- “BigQuery update” → “bakery update”<p>- “GitHub” → “get her”<p>- “CI build” → “CI bill”<p>- “GitHub support” → “get her support”<p>这些并不是生僻词汇——它们都是软件领域中非常常见的词汇,在日常对话中清晰地表达出来。与几年前即使在完全离线的情况下所能达到的准确性相比,这种差距显得尤为明显。<p>这主要是模型质量问题、流媒体/分段问题、激进的后处理,还是苹果语音处理架构中的某种结构性问题?真正的技术限制是什么?尽管现代硬件和云处理技术已经存在,为什么转录服务仍未得到改善?
在我攻读理论物理博士学位期间,我花了相当多的时间研究椭圆边值问题。我意识到这些问题能够从相对低维的输入(边界形状和条件)中生成令人满意的空间模式。与此同时,我接触到了线积分卷积(LIC),它可以生成具有丰富微观结构的矢量场的极其美丽的可视化效果。
我发现将LIC与椭圆偏微分方程结合起来,可以为制作二维视觉艺术提供非常丰富的基础元素。因此,在过去几个月里,我与Opus 4.5一起努力,开发出一个完整的绘图程序。目前,我只支持泊松方程和双调和方程,尽管我计划添加其他一些物理模型,以产生有趣的图案(例如,金兹堡-朗道超导方程)。
Elliptica 仍处于alpha阶段,但正在积极开发中,应该可以使用。