Obrigado por considerar contribuir com o ColabLLM! Valorizamos muito sua participação.
Se você encontrar um bug, por favor abra uma issue incluindo:
- Descrição clara do problema
- Passos para reproduzir
- Comportamento esperado vs. comportamento atual
- Logs relevantes (remova informações sensíveis)
- Ambiente (GPU, versão do Python, etc.)
Sugestões são bem-vindas! Ao propor uma nova funcionalidade:
- Explique o caso de uso
- Descreva o comportamento desejado
- Considere impactos em performance e compatibilidade
-
Fork o repositório e crie uma branch a partir de
maingit checkout -b feature/minha-funcionalidade
-
Siga as diretrizes de código:
- Código Python deve seguir PEP 8
- Adicione docstrings para funções e classes
- Mantenha as variáveis de configuração no topo do arquivo
- Evite hardcoding de valores - use variáveis de ambiente
-
Teste suas alterações:
- Execute o código no Google Colab
- Teste com diferentes modelos
- Verifique se a autenticação funciona corretamente
- Valide o streaming de respostas
-
Faça commit das alterações:
git commit -m "feat: adiciona suporte para novos modelos"Siga o padrão de commits:
feat:Nova funcionalidadefix:Correção de bugdocs:Alterações na documentaçãorefactor:Refatoração de códigoperf:Melhorias de performancetest:Adição ou correção de testeschore:Tarefas de manutenção
-
Push para o seu fork:
git push origin feature/minha-funcionalidade
-
Abra um Pull Request descrevendo suas alterações
- Nunca faça commit de API keys, tokens ou credenciais
- Valide e sanitize todas as entradas de usuário
- Mantenha as dependências atualizadas
- Documente quaisquer considerações de segurança
- Mantenha funções focadas em uma única responsabilidade
- Use nomes descritivos para variáveis e funções
- Adicione comentários para lógica complexa
- Organize imports alfabeticamente
- Minimize operações bloqueantes
- Use async/await apropriadamente
- Considere o impacto de memória em ambientes com GPU limitada
- Garanta compatibilidade com Google Colab
- Teste em GPU T4 (16GB VRAM)
- Considere diferentes versões do Ollama
Todos os PRs serão revisados quanto a:
- Qualidade do código
- Segurança
- Performance
- Documentação
- Compatibilidade
- Seja respeitoso e profissional
- Aceite feedback construtivo
- Foque no que é melhor para a comunidade
- Seja paciente com novos contribuidores
Se tiver dúvidas, abra uma issue com a tag question ou entre em contato através do repositório.
Obrigado por contribuir!