2作者: alokq14 天前原帖
我的“朋友”借用了我的手机一天,第二天就还给我了。(我给了他们访问权限)<p>之后我像往常一样使用我的手机。几个月后,我开始意识到我的朋友似乎知道我只在手机上分享的一些事情。起初我以为这只是巧合,但他们每次都说得很准确,所以我猜这和他们借用我的手机有关。<p>我开始检查我的手机,结果一切正常。他们还告诉我,这个问题无法解决。<p>我还遇到了一些其他“朋友”试图通过一个恶意应用程序监视我,并闪存了一个有问题的操作系统,但我最终找到了问题并通过卸载应用、恢复出厂设置和闪存一个干净的操作系统(在引导加载程序锁定的情况下)解决了这个问题。<p>他们还提到,由于某种原因,这在iPhone上是无法做到的,并且之前问过我手机的型号。我的初步想法是他们可能访问了我的谷歌账户,所以在闪存干净的操作系统后,我在手机上创建了一个新的谷歌账户,但最终我被锁定在自己的账户之外,因为我的密码被更改了,尽管我使用了不同的密码并将其记录下来。<p>我拥有一部摩托罗拉手机,运行安卓13,仍然接收安全更新,我没有在上面使用任何银行应用。它看起来完全正常,没有被替换。<p>我在寻找建议,想知道现在该怎么做才能让手机恢复正常,并理解它可能发生了什么。(除了换新手机的解决方案)
2作者: pplonski8614 天前原帖
大家好, 我正在开发一款桌面应用,旨在帮助具备领域知识的人分析数据——即使他们不懂Python。这是一个非常适合希望拥有比Excel或SPSS更强大工具的用户的选择。 我和我的联合创始人在PyCon US’25上展示了我们的应用,我们在创业者展区设有展位。我们的一个扩展功能是一个位于Python笔记本旁边的聊天面板,用户可以直接请求AI加载数据或为他们运行分析。 在会议期间,一位参观者(他是一名讲师)提出了一个非常酷的想法:他希望AI展示缺失部分的代码,而不是完整的代码。他的学生需要猜测空白处应该填什么。我们非常喜欢这个想法,因此在活动结束后立即开始构建“教师模式”! 以下是它的工作原理: 我们更新了AI提示,使其返回缺失部分的代码(用**标记)。AI还会提供三个可能的答案(A、B、C),其中只有一个是正确的。我们的应用会显示问题和三个按钮。如果学生选择了正确的答案,完整的代码将被插入到笔记本中并自动运行。 您可以在这里阅读更多关于教师模式的信息:<a href="https:&#x2F;&#x2F;mljar.com&#x2F;docs&#x2F;ai-teacher&#x2F;" rel="nofollow">https:&#x2F;&#x2F;mljar.com&#x2F;docs&#x2F;ai-teacher&#x2F;</a> 如果您想尝试,可以在这里下载应用:<a href="https:&#x2F;&#x2F;platform.mljar.com&#x2F;" rel="nofollow">https:&#x2F;&#x2F;platform.mljar.com&#x2F;</a> 该应用包含Python、Jupyter Lab以及我们的扩展,使数据分析变得更加轻松 :) 期待听到您的反馈或想法!
1作者: eazydiner14 天前原帖
在瑞诗凯诗寻找完美的咖啡馆,享受美味的食物、绝妙的咖啡和宁静的氛围吗?EazyDiner可以满足你的需求!探索瑞诗凯诗最好的咖啡馆,这里不仅能欣赏到壮观的恒河美景,还有有机餐饮和舒适的休息场所,适合在长时间的探索或瑜伽后放松身心。无论你想要一个安静的避风港还是热闹的聚会场所,都能找到合适的地方,并享受独家优惠。现在就通过EazyDiner预订,轻松享受最佳咖啡馆体验! 探索更多内容请访问:https://www.eazydiner.com/rishikesh/restaurants/cafe
3作者: codelion14 天前原帖
我构建了一个系统,使大型语言模型(LLMs)能够自动学习和改进问题解决策略,灵感来自于Andrej Karpathy提出的LLM学习的“第三范式”理念。 基本思路是:与其使用静态的系统提示,不如让LLM建立一个针对不同问题类型的有效策略数据库。当你给它一个新问题时,它会选择最相关的策略,应用这些策略,然后评估其效果并进行优化。 例如,在看到足够多的文字题后,它学会了以下策略: 1) 仔细阅读并识别未知数, 2) 用单位定义变量, 3) 写出方程, 4) 逐步求解, 5) 验证答案。 所有策略都以人类可读的JSON格式存储,您可以查看和编辑。 我在数学基准测试中对其进行了测试,看到了一定的改进——在Arena Hard上提高了8.6%,在AIME24上提高了6.67%。经过500次查询,该系统创建了129个策略,并优化了其中97个。 该实现是一个开源插件,名为optillm(我们的推理优化代理)。它可以与任何兼容OpenAI的API一起使用——只需在模型名称前添加“spl-”。它有两种模式:仅推理模式(使用现有策略)和学习模式(创建和优化策略)。 有趣的是,它弥补了生产AI使用的复杂系统提示与我们大多数人使用的基本提示之间的差距。您的模型在处理您提供的问题类型时确实会变得更好。 我之所以构建这个系统,是因为我注意到ChatGPT、Claude等具有极其详细的系统提示和问题解决框架,但大多数开发者使用的是基本提示,错过了这些性能提升。这个方法的灵感来源于Andrej Karpathy关于超越仅仅预训练和微调的LLM学习“第三范式”的推文:<a href="https://x.com/karpathy/status/1921368644069765486" rel="nofollow">https://x.com/karpathy/status/1921368644069765486</a> 这些策略是完全透明的——您可以清楚地看到系统学到了什么,以及它为何做出某些决策。没有黑箱学习。 <a href="https://github.com/codelion/optillm/tree/main/optillm/plugins/spl">https://github.com/codelion/optillm/tree/main/optillm/plugins/spl</a> 非常希望能得到对这个方法的反馈。是否还有其他人尝试过让LLMs从自身经验中学习?
3作者: amiralul14 天前原帖
由于我们对当前网络状态感到担忧,这种状态偏离了其最初在80年代末至90年代初的方向,为什么Gemini协议没有更广泛地传播,至少在极客和技术爱好者中没有得到普及呢?毕竟它正是老网络所倡导的:一种开放的方式来传递(和消费)文本和超链接内容。