
最近在AI圈子里有个挺有意思的话题,就是怎么用Tesla K80这种”过气”显卡搭配Ollama玩转AI。说起来你可能不信,这套组合还真能跑不少有意思的模型。
Tesla K80这卡放在现在确实有点年头了,24GB显存看着唬人,实际上是两块12GB的芯片拼起来的。但配上Ollama这个轻量级工具,跑起7B参数的小模型还挺顺畅。就像用老式收音机听广播,虽然比不上专业音响,但该有的声音一点都不少。
实际测试下来,这套配置最适合跑那些参数在7B左右的模型。比如Llama2-7B、CodeLlama-7B,还有最近挺火的Phi-3-mini。这些模型虽然个头不大,但写代码、回答问题、聊天唠嗑样样都行。就像请了个大学生家教,基础功课都能搞定。
跑13B的模型就有点吃力了,得用量化版。好比让老爷爷扛重物,得把行李拆分打包才行。不过量化后的模型表现也还行,日常使用完全够看。
用这套配置跑个代码助手,写Python脚本时能给出不错的建议。聊天机器人也能陪你唠上几句,虽然反应慢点,但聊胜于无。最实用的是文档总结功能,把长文档丢给它,分分钟给你提炼出重点。
有朋友拿它来跑stable-diffusion,生成些简单的图片。虽然速度比不上新卡,但画个小猫小狗还是没问题的。这就好比用老相机拍照,画质差点,但该有的功能都在。
如果你手头正好有张闲置的K80,或者预算有限想入门AI,这套组合确实是个不错的选择。电费是个需要考虑的因素,毕竟老卡的能耗比不太友好。但要是单纯想体验AI的乐趣,这点电费就当交学费了。
说到底,玩AI最重要的不是硬件多高级,而是那份折腾的劲头。就像小时候用486电脑玩游戏,虽然卡得不行,但快乐一点都没少。
参与讨论
看到用486比喻突然共鸣,当年玩游戏卡成ppt也开心
这种老黄卡散热怎么样?会不会很吵
为啥不直接租云服务器?算下来可能更便宜
试过跑Llama2-7B,日常聊天完全够用
用老显卡入门AI确实划算,就当交电费学费了
24G显存听着厉害,实际是两块拼的有点坑
手头有张吃灰的K80,看来可以翻出来折腾下了
量化后的13B模型效果打几折?
老卡还能这么玩?电费会不会很感人啊🤔
之前用K80跑过stable-diffusion,生成小图还行就是慢
这配置跑代码助手确实够用,写Python时建议挺准的