没有GPU也不愁,基于Groq API无压力使用Llama 3 8B & 70B 开源大模型
提示! 右键单击并选择“Save link as...”进行下载。
VIDEOS |
MP4 |
N/A |
480P |
下载
|
MP4 |
N/A |
480P |
下载
|
MP4 |
N/A |
480P |
下载
|
MP4 |
N/A |
360P |
下载
|
MP4 |
N/A |
360P |
下载
|
MP4 |
N/A |
360P |
下载
|
AUDIO |
MP4 |
N/A |
mp4a.40.2 |
下载
|
MP4 |
N/A |
mp4a.40.5 |
下载
|
MP4 |
N/A |
mp4a.40.2 |
下载
|
THUMBNAILS |
|
JPEG |
Origin Image |
下载
|
如果您喜欢这个视频并希望请我喝一杯咖啡,欢迎前往我的BuyMeACoffee页面
👉 https://www.buymeacoffee.com/01coder
4月18日,Meta发布了最新版本的开源大模型 - Llama 3。当前发布的模型有两个尺寸,分别是8B和70B,
当我们的硬件资源不足以运行模型时怎么办?本期视频中我将分享如何使用Groq API来使用Llama 3 8B和70B模型。Groq Cloud第一时间升级了对Llama 3的支持,让我们可以在没有GPU的情况下使用这两个大模型。
Meta Llama 3
https://ai.meta.com/blog/meta-llama-3/
Llama 3 on Groq Cloud
https://console.groq.com/docs/models
ChatOllama
https://github.com/sugarforever/chat-ollama