大模型实战 - 5:使用Code LLama

| 分类 人工智能与大模型  | 标签 ollama  大模型  nvidia  codellama  代码生成 

现在有很多代码生成相关的大模型,本文主要试用一下Code LLama

ollama run codellama:7b

试验了一下,使用13b 的模型,在本地运行非常慢

试用效果如下




如果本篇文章对您有所帮助,您可以通过微信(左)或支付宝(右)对作者进行打赏!


上一篇     下一篇