avatar
文章
1791
标签
213
分类
104

首页
归档
标签
分类
清單
  • 音乐
  • 照片
  • 电影
友链
关于
安全书
搜索
首页
归档
标签
分类
清單
  • 音乐
  • 照片
  • 电影
友链
关于

TinyLlama

发表于2024-03-14|更新于2024-03-14|AIGCollama
|阅读量:

TinyLlama

TinyLlama

Mac下高速跑LLM

TinyLlama ultra fast on M3 Max cores: 4E+12P+40GPU with

  • Q4_0: 207 tokens/s

  • Q5_K_M: 197 tokens/s

  • FP16: 119 tokens/s ​​​

https://ollama.ai/library/tinyllama?continueFlag=ee66df50d8b2c452419ecff089efadc7

https://github.com/jzhang38/TinyLlama

https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v0.6

image.png

文章作者: 安全书
文章链接: https://lua.ren/ollama/TinyLlama/
版权声明: 本博客所有文章除特别声明外,均采用 null 许可协议。转载请注明来自 安全书!
ollama
cover of previous post
上一篇
用Rbenv创建Ruby虚拟环境
cover of next post
下一篇
ollama的indexing这个API是什么作用?
avatar
安全书
安全书
文章
1791
标签
213
分类
104
Follow Me
公告
公众号:糖果的实验室
目录
  1. 1. TinyLlama
最新文章
无题
无题2024-10-25
无题
无题2024-09-20
Obsidian的ChatGPT插件TextGenerator
Obsidian的ChatGPT插件TextGenerator2024-08-27
在Mac系统上将默认的GCC切换到LLVM的Clang
在Mac系统上将默认的GCC切换到LLVM的Clang2024-04-03
Lazygit的安装
Lazygit的安装2024-04-03
©2020 - 2024 By 安全书
( 备案:辽ICP备16003836号-5 )
搜索