Distilling the Knowledge in a Neural Network |
ArXiv |
Surge o conceito “Destilação de Conhecimento”. |
Em construção |
A Survey on Knowledge Distillation of Large Language Models |
ArXiv |
Revisão sobre técnicas de destilação de conhecimento para modelos de linguagem. |
Análise |
Towards Cross-Tokenizer Distillation: the Universal Logit Distillation Loss for LLMs |
ArXiv |
Proposta de técnica de destilação universal para LLMs. |
Em construção |
DISTILLM: Towards Streamlined Distillation for Large Language Models |
ArXiv |
Abordagem otimizada para destilação de LLMs. |
Em construção |
DistiLLM-2: A Contrastive Approach Boosts the Distillation of LLMs |
ArXiv |
Estratégias para melhorar a eficiência da destilação de LLMs. |
Em construção |