Ollama和Tesla K80能玩转什么AI?-满久琦的个人网站

Ollama和Tesla K80能玩转什么AI?

11 人参与

最近在AI圈子里有个挺有意思的话题,就是怎么用Tesla K80这种”过气”显卡搭配Ollama玩转AI。说起来你可能不信,这套组合还真能跑不少有意思的模型。

老将出马,宝刀未老

Tesla K80这卡放在现在确实有点年头了,24GB显存看着唬人,实际上是两块12GB的芯片拼起来的。但配上Ollama这个轻量级工具,跑起7B参数的小模型还挺顺畅。就像用老式收音机听广播,虽然比不上专业音响,但该有的声音一点都不少。

能玩哪些AI模型?

实际测试下来,这套配置最适合跑那些参数在7B左右的模型。比如Llama2-7B、CodeLlama-7B,还有最近挺火的Phi-3-mini。这些模型虽然个头不大,但写代码、回答问题、聊天唠嗑样样都行。就像请了个大学生家教,基础功课都能搞定。

跑13B的模型就有点吃力了,得用量化版。好比让老爷爷扛重物,得把行李拆分打包才行。不过量化后的模型表现也还行,日常使用完全够看。

实战表现如何?

用这套配置跑个代码助手,写Python脚本时能给出不错的建议。聊天机器人也能陪你唠上几句,虽然反应慢点,但聊胜于无。最实用的是文档总结功能,把长文档丢给它,分分钟给你提炼出重点。

有朋友拿它来跑stable-diffusion,生成些简单的图片。虽然速度比不上新卡,但画个小猫小狗还是没问题的。这就好比用老相机拍照,画质差点,但该有的功能都在。

值不值得折腾?

如果你手头正好有张闲置的K80,或者预算有限想入门AI,这套组合确实是个不错的选择。电费是个需要考虑的因素,毕竟老卡的能耗比不太友好。但要是单纯想体验AI的乐趣,这点电费就当交学费了。

说到底,玩AI最重要的不是硬件多高级,而是那份折腾的劲头。就像小时候用486电脑玩游戏,虽然卡得不行,但快乐一点都没少。

参与讨论

11 条评论

延伸阅读