你觉得在公司内部托管一个本地大型语言模型(LLM)怎么样?我们有MS365订阅和内置的Copilot来学习流程和进行问答。但是,针对内部系统,比如包含敏感数据的特定部门软件,我没有其他想法,除了使用本地LLM。不过到目前为止,我发现GPU的价格很高。GPT告诉我,我可以使用配备RTX 6000 Pro 96GB的36B本地LLM,价格大约是12000美元。而我认为我们在浏览器上使用的普通GPT(GPT 5.4扩展版)比36B的LLM要强得多。我很好奇是否还有其他人有类似的想法,或者有什么专业的建议。
返回首页
最新
我是一名年长的程序员,但我在职业生涯中一直保持与时俱进。我大约已经这样做了36年。现在,随着人工智能在我当前工作中发挥越来越大的作用,我意识到,与年轻程序员竞争日益缩小的工作机会的确会变得越来越困难。
不过,似乎还有一些小领域,我可以在其中继续发挥我的生产力,直到我准备退休,并且可能有机会加入一个正在尝试转型的团队。我的初步评估是,在一个人工智能将面临挑战的冷门领域,可能还有3到4年的稳定工作。
在这种情况下,你会选择这样做吗?坦白说,我已经不再关心是否处于技术的最前沿,但我渴望利用我多年的经验来创造价值。