返回首页
最新
分享一项基于结构耦合而非相关性的经验性制度检测研究。<p>关键发现:相关性可以保持在高水平,而结构依赖性却可能崩溃。信号能够在不同尺度上检测到刚性、过渡和混沌的制度。<p>黑箱引擎,仅提供结果。非预测性,无机器学习。<p>寻求对解释和相关文献的反馈。<p>仓库链接:https://github.com/johnoliveiradev/Multiscale-structural-regime-benchmark/tree/main/results/BTC%20vs%20ETH%2060%20days
我最近发布了一个小型的SaaS产品,整个过程大约花了24小时,主要是在学校假期期间完成的。这是我第一次将一个项目从构思到部署、用户引导以及真实用户的整个过程都亲自经历过。
该产品的目标用户是早期开发者,主要关注于减少在构建新应用时的初始设置和准备工作。它抽象掉了一些重复的早期决策和样板代码,这些往往会拖慢第一次构建者的进度,特别是在项目结构、配置以及“第一天应该具备什么”的方面。
目前我有少量活跃用户,但用户流失率相对较高,这表明可能存在以下几种情况:
- 问题不够痛苦
- 抽象层次过早泄露
- 用户体验或引导未能传达价值
- 工具解决了一个在第一次使用后就消失的问题
我非常希望能得到一些技术反馈,具体包括:
- 抽象层是否合理
- 心智模型是否与您启动项目的方式一致
- 产品在某些方面是否显得过于主观或限制性
- 什么因素会让您愿意长期保留这个工具
感谢您的阅读,欢迎直接、批判性的反馈。
我制作了一个小型的类似Wordle的游戏,目标是每天生成的SHA-256哈希值。<p>这个游戏故意不具备密码学上的现实性;目的是让人直观地理解雪崩效应和近似匹配的无意义性。<p>这只是一个快速的前端实验;代码尚未公开。<p>一切都在客户端运行;没有追踪;也不需要账户。
团队是如何利用增强型人工智能流程来开发、维护和扩展复杂代码库的?<p>我了解到的最好信息是,GitHub 仓库中包含一个关于代码应执行什么的“策划知识库”。<p>但我不太清楚如何将这些提示与代码库保持同步。<p>它们是否像 yacc 源文件一样,每次我们对仓库进行干净构建时,生成的代码都会被清除,人工智能再根据新的特性重新生成代码?<p>还是说我们定期让人工智能同时读取提示和代码,并从一个到另一个提出修改建议?<p>在这方面有哪些最佳实践?是否有 GitHub 仓库展示了世界级的实现方式?