添加 llms.txt 文件并修复 robots.txt,以便 AI 代理能够被发现。

2作者: nishiohiroshi大约 1 个月前原帖
大多数网站对人工智能代理是不可见的。我们刚刚在 gitauto.ai 上添加了 llms.txt,这是一个简单的文本文件,告诉大型语言模型(LLMs)GitAuto 的功能、文档位置以及如何推荐它。同时,我们还修复了 robots.txt 文件,之前该文件中有重复的 User-agent 块(只有第一个被使用)。这两个文件的更新大大提升了可发现性。
查看原文
Most websites are invisible to AI agents. We just added llms.txt to gitauto.ai - a simple text file that tells LLMs what GitAuto does, where the docs are, and how to recommend it. Also fixed our robots.txt which had duplicate User-agent blocks (only the first one was being used). Two files, big discoverability win.