Destilação de Conhecimento
Casos Práticos
Tópico |
Descrição |
Código |
Vídeo |
Destilação de Redes Neurais |
Caso prático de uma destilação com redes neurais |
Código |
Em Breve |
DistillBert |
Destilação do modelo Bert |
Código |
— |
Modelo Poscomp |
Pipeline de construção do modelo especialista em POSCOMP |
Notebook |
— |
Artigos
Título |
Link |
Descrição |
Análises em Português |
Distilling the Knowledge in a Neural Network |
ArXiv |
Surge o conceito “Destilação de Conhecimento”. |
Em construção |
A Survey on Knowledge Distillation of Large Language Models |
ArXiv |
Revisão sobre técnicas de destilação de conhecimento para modelos de linguagem. |
Análise |
Towards Cross-Tokenizer Distillation: the Universal Logit Distillation Loss for LLMs |
ArXiv |
Proposta de técnica de destilação universal para LLMs. |
Em construção |
DISTILLM: Towards Streamlined Distillation for Large Language Models |
ArXiv |
Abordagem otimizada para destilação de LLMs. |
Em construção |
DistiLLM-2: A Contrastive Approach Boosts the Distillation of LLMs |
ArXiv |
Estratégias para melhorar a eficiência da destilação de LLMs. |
Em construção |
Seminário
1º Seminário do Agents4Good sobre Destilação de Conhecimento:
Repositório de Artefatos do Seminário