'<개념> > Deep learning' 카테고리의 다른 글
Transformer 구조 : Self attention,Multihead attention,Layer Norm, Feed forward(+파라미터 구함) (0) | 2024.06.24 |
---|---|
LLAMA Inference (0) | 2024.05.17 |
T5 inference in inferentia (0) | 2024.04.08 |
openai gpt3 inference in inferentia2(neruon) (0) | 2024.03.28 |
GPT2 Text-generation을 AWS환경의 GPU/CPU/Inf2/Trn1에서.. (1) | 2024.01.29 |