You need to agree to share your contact information to access this model
This repository is publicly accessible, but you have to accept the conditions to access its files and content.
✨🩷 Pour accéder a Nelya-neko-9b, vous devez accepter nos conditions et notre license. Ainsi que utiliser le modèle ce pour quoi il a été entraîné. ✨🩷 Merci de remplir le formulaire ici-présent pour faire votre candidature.
Log in or Sign Up to review the conditions and access this model content.
🐾 Fiche Technique : Nelya-neko-9B 🐾
L'Intelligence Artificielle dédiée au Nekolien Bienvenue dans l'écosystème Nelya-neko, la première suite de modèles de langage (LLM) intégralement conçus pour la maîtrise et l'expansion de la langue Nekolienne de façon 100 % native. Contrairement aux modèles standards, Nelya a été entraîné "from scratch" pour capturer l'essence syntaxique et culturelle de cette conlang unique.
🚀 Présentation du Projet
Nelya-neko-9B est le fleuron d'une architecture neuronale optimisée pour le traitement des langues construites. Là où les modèles généralistes échouent à comprendre les nuances grammaticales spécifiques au Nekolien, Nelya excelle grâce à un vocabulaire dédié et un tokenizer sur mesure.
Note de la conceptrice : Ce modèle n'est pas un "fine-tune" d'une base existante. C'est une création originale (architecture et poids) née de zéro.
📊 La Famille de Modèles
Nous avons développé une gamme adaptée à tous les besoins computationnels, de la recherche intensive à l'utilisation mobile :
| Modèle | Paramètres | Usage Cible |
|---|---|---|
| Nelya-neko-9B 🏆 | 9 Milliards | Haute précision, Nekolienne. |
| Nelya-neko-6B | 6 Milliards | Équilibre parfait entre performance et rapidité. |
| Nelya-neko-4B | 4 Milliards | Idéal pour l'intégration accessible sur TPU. |
| Nelya-neko-1B | 1 Milliard | Utilisation rapide sur matériel limité. |
| Tiny-Nelya-neko | 124 Millions | Modèle "Edge" ultra-Tiny |
🛠 Caractéristiques Techniques
- Architecture : Transformer Decoder-only (Original design by Clemylia).
- Langue Native : Nekolien 🐱
- Génération créative et respect des règles grammaticales complexes.
- Analyse morphologique de la conlang.
- Tokenizer Nekolien, afin d'éviter la fragmentation excessive des racines Nekoliennes.
🎨 Pourquoi choisir Nelya ?
- Souveraineté Linguistique : Aucun biais de langue naturelle provenant de modèles pré-existants (GPT, Llama, etc.).
- Flexibilité : Décliné en 5 tailles pour s'adapter à votre infrastructure (VRAM).
✨ Usage et utilisation
Entraîner seulement 100% sur le nekolien (ne connait aucune autre langue).
🛡️ Licence & Crédits
Développé avec passion par Clemylia (Conlanger-LLM-clem). Propriété intellectuelle réservée sur l'architecture et le corpus linguistique.
Exemple utilisation grand public (Kaggle) :
# 1. Installation des dépendances nécessaires
!pip install -U transformers bitsandbytes accelerate
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
import torch
import os
# Forcer l'utilisation des deux GPUs si Kaggle ne les voit pas par défaut
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"
# 2. Configuration de la quantification 4-bit (QLoRA style)
# On utilise float16 pour le calcul pour matcher les capacités des T4
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.float16,
bnb_4bit_quant_type="nf4",
bnb_4bit_use_double_quant=True,
)
model_id = "Conlanger-LLM-CLEM/Nelya-neko-9b"
# 3. Chargement du Tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_id)
# 4. Chargement du modèle avec répartition automatique (Sharding)
# device_map="auto" va diviser les couches du 9b entre GPU 0 et GPU 1
model = AutoModelForCausalLM.from_pretrained(
model_id,
quantization_config=bnb_config,
device_map="auto",
torch_dtype=torch.float16,
low_cpu_mem_usage=True # Important pour éviter de saturer la RAM système de Kaggle
)
# Affichage de la répartition pour vérifier que les 2 GPUs travaillent
print(f"Répartition des couches : {model.hf_device_map}")
# 5. Préparation de l'entrée
# Note : On ne fait plus .to(device) manuellement, accelerate s'en occupe avec device_map
input_text = "Ti eta "
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
# 6. Génération
outputs = model.generate(
**input_ids,
max_new_tokens=30, # On peut se permettre un peu plus avec 32Go !
do_sample=True,
temperature=0.7,
top_p=0.9
)
print("-" * 30)
print("RÉPONSE NELYA-NEKO :")
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
print("-" * 30)
print('fin')
- Downloads last month
- 194
