elissoncardoso1 commited on
Commit
65fbd3e
·
verified ·
1 Parent(s): 4135c91

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +96 -0
README.md ADDED
@@ -0,0 +1,96 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ base_model: HuggingFaceTB/SmolLM2-1.7B-Instruct
4
+ tags:
5
+ - generated_from_trainer
6
+ - espiritismo
7
+ - portuguese
8
+ - fine-tuned
9
+ - peft
10
+ - lora
11
+ model-index:
12
+ - name: SmolLM2-1.7B-Espirita
13
+ results: []
14
+ ---
15
+
16
+ # SmolLM2-1.7B-Espirita
17
+
18
+ Este modelo é uma versão fine-tuned do [HuggingFaceTB/SmolLM2-1.7B-Instruct](https://huggingface.co/HuggingFaceTB/SmolLM2-1.7B-Instruct) usando LoRA (Low-Rank Adaptation) em um dataset de obras espíritas em português.
19
+
20
+ ## Descrição do Dataset
21
+
22
+ O modelo foi treinado em um dataset contendo 12.842 pares de instrução-resposta extraídos de 11 obras clássicas do espiritismo:
23
+
24
+ - **Evangelho Redivivo** (Livros 1-5)
25
+ - **O Livro dos Espíritos**
26
+ - **O Livro dos Médiuns**
27
+ - **O Céu e o Inferno**
28
+ - **O Evangelho Segundo o Espiritismo**
29
+ - **O que é o Espiritismo**
30
+ - **Obras Póstumas**
31
+
32
+ ## Configuração do Treinamento
33
+
34
+ - **Modelo Base**: HuggingFaceTB/SmolLM2-1.7B-Instruct
35
+ - **Método**: LoRA (Low-Rank Adaptation)
36
+ - **Quantização**: 4-bit
37
+ - **Épocas**: 3
38
+ - **Batch Size**: 4
39
+ - **Learning Rate**: 2e-4
40
+ - **Max Length**: 512 tokens
41
+ - **LoRA Rank**: 16
42
+ - **LoRA Alpha**: 32
43
+
44
+ ## Como Usar
45
+
46
+ ```python
47
+ from transformers import AutoTokenizer, AutoModelForCausalLM
48
+ from peft import PeftModel
49
+ import torch
50
+
51
+ # Carrega o modelo base
52
+ base_model = AutoModelForCausalLM.from_pretrained(
53
+ "HuggingFaceTB/SmolLM2-1.7B-Instruct",
54
+ torch_dtype=torch.float16,
55
+ device_map="auto"
56
+ )
57
+
58
+ # Carrega o tokenizer
59
+ tokenizer = AutoTokenizer.from_pretrained("HuggingFaceTB/SmolLM2-1.7B-Instruct")
60
+
61
+ # Carrega os adaptadores LoRA
62
+ model = PeftModel.from_pretrained(base_model, "elissoncardoso1/SmolLM2-1.7B-Espirita")
63
+
64
+ # Função para gerar resposta
65
+ def gerar_resposta(pergunta, max_length=256):
66
+ prompt = f"Pergunta: {pergunta}\nResposta:"
67
+
68
+ inputs = tokenizer(prompt, return_tensors="pt", truncation=True, max_length=512)
69
+
70
+ with torch.no_grad():
71
+ outputs = model.generate(
72
+ **inputs,
73
+ max_length=max_length,
74
+ temperature=0.7,
75
+ do_sample=True,
76
+ pad_token_id=tokenizer.eos_token_id
77
+ )
78
+
79
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
80
+ return response.split("Resposta:")[-1].strip()
81
+
82
+ # Exemplo de uso
83
+ pergunta = "O que é a reencarnação segundo o espiritismo?"
84
+ resposta = gerar_resposta(pergunta)
85
+ print(resposta)
86
+ ```
87
+
88
+ ## Limitações
89
+
90
+ - O modelo foi treinado especificamente em conteúdo espírita em português
91
+ - Pode não ter conhecimento atualizado sobre eventos recentes
92
+ - As respostas refletem o conteúdo das obras utilizadas no treinamento
93
+
94
+ ## Licença
95
+
96
+ Este modelo está licenciado sob Apache 2.0. O conteúdo das obras espíritas utilizadas está em domínio público.