返回首页
最新
我创建了 Explainr(<a href="https://explainr.aryanbuilds.com" rel="nofollow">https://explainr.aryanbuilds.com</a>),旨在帮助人们理解研究论文。您只需上传一个 PDF 文件,它会提取关键主题、相关前提知识,并为您提供学习路线图。
我希望能收到以下方面的反馈:
- 路线图的实用性
- 主题提取的准确性
- 任何用户界面/用户体验方面的问题
注意:您可以获得 20 个免费积分(每个文档 1 个积分)。目前计费功能尚未完全实现,API 在负载下可能会受到限制。但对于个人使用来说,它的稳定性是可靠的。
我现在正处于可能会放弃这个项目的阶段,但我希望能够发布它并了解可以改进的地方。非常感谢您的反馈!
我创建了 <a href="https://stringflux.io" rel="nofollow">https://stringflux.io</a>,旨在让日常字符串转换变得不那么痛苦。它类似于 CyberChef,支持多种字符串操作,但界面更简洁、更专注,并根据您的输入提供智能建议。
您还可以将转换串联起来——例如:先解码一个经过 base64 编码的压缩 JSON 字符串,然后将其格式化为 JSON(美化打印)——这一切都可以在一个流程中完成。这在处理复杂或嵌套字符串时非常有用,比如编码的 API 响应或日志数据,您需要应用多个步骤才能使内容可读。
这个想法源于在不同工具之间跳转以处理常见字符串任务时的挫败感。
在 GitHub 的 README 中有一个简短的 GIF 演示: <a href="https://github.com/stringflux/stringflux">https://github.com/stringflux/stringflux</a>
期待听到您的想法和反馈!
论点:
- GPU使用并行计算
- 浮点运算不具备结合性
- 舍入误差的累积方式不同
- GPU产生的计算结果具有噪声
- 数据中存在已知的噪声与准确性之间的权衡
- 噪声需要过度参数化或更大的网络才能进行泛化
- 过度参数化会阻碍网络对问题空间的充分泛化
因此,GPU的不确定性似乎对人工智能不利。我哪里出错了?
问题:
- 这是否已经被量化?据我理解,答案会因情况而异,并与网络的深度、宽度、架构、学习率等其他细节相关。归根结底,熵意味着某种噪声与准确性之间的权衡,但我们讨论的是像10%、1%、0.1%这样的数量级吗?
- 由于噪声与准确性之间的权衡,似乎可以认为使用一个经过确定性训练的小网络可以达到与一个经过非确定性训练的更大网络相同的性能。这是真的吗?即使我们只讨论一个神经元的差异?
- 如果像驾驶汽车这样的问题空间过于庞大,无法完全表示为一个数据集(考虑宇宙的原子作为硬盘),我们如何确保一个数据集是问题空间的完美抽样?
- 过度参数化难道不会保证模型学习的是数据集而不是问题空间吗?将其概念化为使用更高次的多项式来表示另一个多项式是否不正确?
- 即使有完美的抽样,当少量噪声能够引发雪崩时,噪声计算似乎也不兼容。如果这种噪声以1%量化,难道不能说数据集在网络中留下的“印象”会比应有的多出1%吗?也许在某种意义上会溢出?评估数据点“非常接近”但未包含在训练数据点中的情况,更可能被错误评估为相同的“邻近”训练数据点。也许我在这里重新发明边缘情况和过拟合,但我认为过拟合不会在训练结束时自发发生。
例如,对于一部90分钟的电影,你可以选择在连续三天内,每天观看30分钟。<p>这样可以避免观影疲劳,并更容易将观看安排融入你的日程中。