1作者: GhostLeader9 个月前原帖
嗨,HN, 我一直在开发Masari Cabal,这是一个专为希望围绕股票、加密货币、外汇和商品等市场进行深入讨论的交易者和投资者设计的社交平台。 主要功能包括: • 用于分享市场见解的私密频道 • 一个系统,允许贡献者通过私密帖子或群组会员资格选择性地将内容货币化 • 旨在为严肃的市场参与者提供清晰、无干扰的设计 我的动机源于对主流平台(如Twitter和Discord)上讨论内容分散和嘈杂的失望。我的目标是提供一个让深思熟虑的见解和高质量讨论蓬勃发展的空间——减少噪音,增加结构。 目前,我专注于稳定第一个版本(私密频道 + 高级内容系统)。基于社区需求,计划在后期引入比特币支付和人工智能驱动的工具。 我很想听听任何对交易、投资或构建社交平台感兴趣的人的反馈、想法或建议。欢迎随时提问!
1作者: RBBronson1239 个月前原帖
在2017年,我宣布推出我的YC公司——“7000万就业”,这是第一个为1亿名有犯罪记录的美国人提供的就业平台。在18个月内,我们实现了盈利,并帮助数千人找到工作。然而,COVID疫情爆发后,公司裁员,我们的员工失去了工作,招聘也停止了。我们不得不关闭。 除了就业,受司法系统影响的人们还谈到了他们对社区的需求。他们渴望同伴的支持,而不是在羞耻和孤独绝望中服刑终老。他们需要一个可以找到友谊、倾诉和获得灵感的地方。还有爱,还有乐趣。一个属于他们自己的Facebook,一个真正欢迎他们的俱乐部。 我相信新兴技术与社会对这一群体态度的积极变化交汇在一起,使得这个时机变得恰到好处。它正在迎来自己的“时刻”。 我认为这也代表着一个重要的商业机会。他们消费大量的汉堡和运动鞋,但无论是麦当劳还是耐克都从未直接向他们营销。他们可以轻松选出任何一位总统,但没有政治家在争取他们的选票。 但如果团结在一起,他们可以展现出集体的经济实力和政治影响力。 我的目标是将“ Commissary Club”置于这一重大变革的中心。 我们将帮助人们找到工作和住房,整个过程中我们会全程协助。我们的会员将找到导师、律师,参加课程,获得建议,约会并交朋友。一起享受乐趣。为前科犯打造的Facebook。 我在这个领域已经待了15年,并且我也曾经历过监禁。我们一直需要这样的平台。
10作者: kevinlinxc9 个月前原帖
大家好,我叫Kevin Lin,这是我关于乐谱智能眼镜项目的Show HN。我在周五发布的视频登上了首页:<a href="https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=43876243">https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=43876243</a>,但Dang建议我们也做一个Show HN,所以我来了! 我一直想把乐谱放进智能眼镜里很久了,直到二月中旬,Mentra(YC W25)在推特上发布了他们举办的智能眼镜黑客马拉松的消息——获胜者可以带走一副眼镜。我参加了活动,和我的队友一起制作了许多与音乐相关的应用,结果我们获胜了,所以我带着眼镜回家,进一步完善了项目,并制作了一段很酷的视频(<a href="https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=j36u2i7PKKE" rel="nofollow">https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=j36u2i7PKKE</a>)。 这副眼镜是Even Realities G1s。它们看起来很普通,但配备了两个麦克风,每个镜片都有一个屏幕,甚至可以根据处方定制。我遇到的每一个试戴过的人都对显示效果感到惊讶,而视频录制的效果却无法完全展现它们的优点。 软件运行在AugmentOS上,这是Mentra的智能眼镜操作系统,适用于多种第三方智能眼镜,包括G1s。制作应用程序时,我只需使用AugmentOS SDK编写并运行一个TypeScript文件。这为你提供语音转录和原始音频作为输入,文本或位图作为输出到屏幕,其他一切都被完全抽象化。你的眼镜与AugmentOS应用程序通信,然后该应用程序与你的TypeScript服务通信。 唯一困难的部分是创建一个Python脚本,将乐谱(MusicXML格式)转换为小型优化的位图以在屏幕上显示。首先,现有的音乐相关Python库文档相当薄弱,我遇到了多个前所未见的错误信息。缩小到眼镜屏幕的小尺寸也意味着音符的杆和五线谱线会消失,因此我想使用形态学膨胀来强调这些元素,而不使音符变得难以辨认。最终的处理流程是:MusicXML -> music21库渲染小节为png -> 使用opencv膨胀 -> 缩小 -> 使用Pillow转换为位图 -> 使用imagemagick优化位图。这远不是我写过的最好代码,但LLMs在这个任务上的尝试非常糟糕,我多年的Python经验在这里得到了充分展现。代码在GitHub上:<a href="https:&#x2F;&#x2F;github.com&#x2F;kevinlinxc&#x2F;AugmentedChords">https:&#x2F;&#x2F;github.com&#x2F;kevinlinxc&#x2F;AugmentedChords</a>。 将其整合起来,我的TypeScript服务在请求时本地提供这些位图。我搭建了一个用户界面,可以通过语音命令导航菜单和乐谱(例如:显示目录、下一页、选择、开始、退出、暂停),然后我将脚踏板连接到我的笔记本电脑。由于位图发送延迟(目前约为3秒,但未来的眼镜会更好),在演奏时使用脚踏板翻页并不可行,因此我让一个踏板切换自动滚动,另外两个踏板则加速/暂时暂停滚动。 经过多次调整,我终于能够仅用眼镜演奏完整的歌曲!这花了很多次尝试,确实还有很多改进的空间。例如:- 位图发送速度较慢,这就是为什么使用脚踏板翻页不可行的原因;- 分辨率较小,我希望能一次显示更多的小节,以便减少翻页频率;- 由于脚踏板不便携,能够有一种模式让音频决定乐谱的变化会很酷。我尝试用FFT实现这一点,但经常出错,需要更多的努力。头部倾斜控制也很酷,因为完全手动控制是练习的硬性要求。 所有这些痛点都在Mentra和其他竞争公司中得到解决,因此我非常期待下一代产品的到来!如果你有任何问题,请随时问我!
8作者: vaibhavdubey979 个月前原帖
嗨,HN!我们是 Vaibhav 和 Marcello。我们正在构建 Plexe(<a href="https://github.com/plexe-ai/plexe">https://github.com/plexe-ai/plexe</a>),这是一个开源代理,可以将自然语言任务描述转换为训练好的机器学习模型。这里有一个视频演示:<a href="https://www.youtube.com/watch?v=bUwCSglhcXY" rel="nofollow">https://www.youtube.com/watch?v=bUwCSglhcXY</a>。 机器学习模型有很多种用途,但由于制作过程复杂且混乱,许多潜在应用从未实现。你可能花费数月时间寻找数据、清理数据、实验模型并部署到生产环境,结果发现项目因为耗时过长而被搁置。虽然有许多“自动化”机器学习的工具,但实际上仍然需要机器学习专家团队来将有价值的东西投入生产。而且,我们不能对每个机器学习问题都使用大型语言模型。如果基于你的数据训练的逻辑回归模型能更好地完成任务,为什么还要使用通用的100亿参数语言模型呢? 我们的灵感来源于,我们可以利用大型语言模型生成特定任务的机器学习模型,并在个人数据上进行训练。得益于大型语言模型的推理能力,现在可以创建一个代理系统,自动化大部分机器学习生命周期。 几个月前,我们开始开发一个Python库,允许你使用预期行为的描述在结构化数据上定义机器学习模型。我们最初的实现将潜在解决方案组织成一个图,利用大型语言模型编写计划,将其实现为代码,并运行生成的训练脚本。通过简单的搜索算法,系统遍历解决方案空间,以识别和打包最佳模型。 然而,我们遇到了几个限制,因为算法在边缘情况下表现脆弱,我们不得不为训练过程中的每一个小问题打补丁。于是我们决定重新思考这个方法,抛弃一切,使用一种优先考虑通用性和灵活性的代理方法重建工具。最初的单一机器学习工程代理变成了一个代理机器学习“团队”,所有实验都通过MLFlow进行跟踪和记录。 我们当前的实现使用smolagents库来定义代理层次结构。我们将之前实现的功能映射到一组专门的代理,例如提出解决方案计划的“机器学习科学家”等。每个代理都有专门的工具、指令和提示模板。为了促进跨代理的通信,我们实现了一个共享内存,使得对象(数据集、代码片段等)可以通过引用注册表中的键间接传递给其他代理。你可以在这里找到详细的工作原理介绍:<a href="https://github.com/plexe-ai/plexe/blob/main/docs/architecture/multi-agent-system.md">https://github.com/plexe-ai/plexe/blob/main/docs/architecture/multi-agent-system.md</a>。 Plexe的早期版本专注于结构化数据上的预测问题,可以用于构建模型,例如预测高强度运动中的运动员受伤风险、电子商务市场的产品推荐,或预测算法交易的技术指标。这里有一些示例供你参考:<a href="https://github.com/plexe-ai/plexe/tree/main/examples">https://github.com/plexe-ai/plexe/tree/main/examples</a>。 要在你的数据上运行它,你可以导入任何CSV、parquet等格式的文件,Plexe会从你的数据集中提取所需的内容,以确定应该使用哪些特征。在开源工具中,目前只支持添加文件,但在我们的平台版本中,我们将支持与Postgres集成,从中根据SQL查询提取所有可用数据,并将其导入parquet文件,以供代理构建模型。 接下来,我们将着手处理更多的机器学习项目生命周期:我们目前正在开发一个“特征工程代理”,专注于数据准备过程中通常需要的复杂数据转换。如果你感兴趣,可以了解一下Plexe,并告诉我们你的想法!
2作者: wwfa9 个月前原帖
花了太多时间构建一个基于拼图的因式分解算法,将整数因式分解从筛法和数论的领域转移到二进制逻辑和拼图解决的领域。<p>令人惊讶的是,这为思考这个问题打开了许多新的思路。至于它是否能超越甚至是简单的试除法(好吧,它确实有一次做到过),还有待观察。<p>观看视频:<a href="https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=K56vHHZWZLU" rel="nofollow">https:&#x2F;&#x2F;www.youtube.com&#x2F;watch?v=K56vHHZWZLU</a><p>代码:<a href="https:&#x2F;&#x2F;github.com&#x2F;worldsworstfactoringalgorithm&#x2F;wwfa">https:&#x2F;&#x2F;github.com&#x2F;worldsworstfactoringalgorithm&#x2F;wwfa</a><p>感谢您的关注!
4作者: DeborahEmeni_9 个月前原帖
最近我一直在深入研究 Helm 模板,感觉快要陷入 YAML 的地狱了。最开始服务不多的时候还可以应付,但现在管理起来实在太困难了。有没有人找到一种完全不使用 Helm 的工作流程?或者有没有人能在大规模下让 Helm 变得可管理?
1作者: pancakeguy9 个月前原帖
嗨,HN! 我们是Jake、Jack和Joe,我们是Burla的开发者,Burla是一个开源的Python批处理平台。 我们对大规模批处理管道的迭代速度慢和困难感到沮丧。简单的小改动往往需要重建Docker容器,等待GCP-batch或AWS-batch管道重新部署,还要等虚拟机冷启动,这样的开发周期每次超过5分钟,只为查看这次我的代码抛出了什么错误,然后再重复一遍! 这个领域的许多其他工具要么过于复杂,要么是闭源/仅限托管,要么设置和管理起来太困难,或者根本太贵。 这就是我们创建Burla的原因,它可以让我在任何我想要的Docker容器中、在任何我想要的硬件上、在成千上万的虚拟机上运行我的Python函数,直到完成。它配备了一个仪表板,可以监控长时间运行的后台作业。它是开源的,只需一条命令即可安装。 即使在运行成千上万的虚拟机时,代码的更改也能在大约2秒内部署并开始运行,极大地缩短了与GCP-batch和AWS-Batch等工具相比的开发周期。 我们的长期目标是让更多的云服务变得简单、快速和开源。我们相信,无论你是在本地编码,还是在1000台机器的集群上,基础设施都应该快速更新和响应,像在一秒钟内那样快速。我们应该能够以思维的速度进行迭代,而不是以我的Lambda函数、批处理工作负载、ETL管道或Kubernetes服务重新部署所需的速度!
1作者: Jensson9 个月前原帖
大型语言模型(LLM)经常在明明知道答案时却说“我不知道”,或者说A却做B等等。这是因为它缺乏自我反思的能力,它并不像人类那样审视自己的思维。 我在这里讨论的是在实际应用中进行实时自我反思,以指导其回答。 以下是人类与大型语言模型在这方面的不同之处的例子: * 当一个人被问到一个问题时,他脑中会有多个想法。他可能会回答“我不知道”,但他也记得答案。他会对这两者进行比较,意识到“我不知道”是错误的,因为他确实知道答案,然后给出正确的回答。 * 当一个大型语言模型被问到一个问题时,它也有相同的想法,它可以回答“我不知道”,但它同样记得正确答案,就像人类一样。此时,大型语言模型就像掷骰子一样,随机选择它将要回应的内容。 这清楚地表明,自我反思在解决这些问题时是多么重要。大型语言模型停止犯这些愚蠢错误的唯一方法就是进行自我反思,因为只要有任何机会让大型语言模型选择错误的答案,它有时就会做出明知是错误的选择。 如果我们为大型语言模型提供自我反思的能力,那么它们就不再是黑箱,因为我们可以直接询问它们自己,它们会解释自己的思维和工作原理。我还认为,自我反思将使得智能学习成为可能,就像人类在很少的数据下所做的那样,这比在复杂任务中进行统计学习要高效得多。 所以我在想是否有任何例子表明人们已经创建了这样的模型?不一定非得是大型语言模型,只要有一个自我意识的模型即可。或者是否有任何研究在尝试为模型添加这样的功能。