You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

✨🩷 Pour accéder a Nelya-neko-9b, vous devez accepter nos conditions et notre license. Ainsi que utiliser le modèle ce pour quoi il a été entraîné. ✨🩷 Merci de remplir le formulaire ici-présent pour faire votre candidature.

Log in or Sign Up to review the conditions and access this model content.

🐾 Fiche Technique : Nelya-neko-9B 🐾

Nelya-neko

L'Intelligence Artificielle dédiée au Nekolien Bienvenue dans l'écosystème Nelya-neko, la première suite de modèles de langage (LLM) intégralement conçus pour la maîtrise et l'expansion de la langue Nekolienne de façon 100 % native. Contrairement aux modèles standards, Nelya a été entraîné "from scratch" pour capturer l'essence syntaxique et culturelle de cette conlang unique.

🚀 Présentation du Projet

Nelya-neko-9B est le fleuron d'une architecture neuronale optimisée pour le traitement des langues construites. Là où les modèles généralistes échouent à comprendre les nuances grammaticales spécifiques au Nekolien, Nelya excelle grâce à un vocabulaire dédié et un tokenizer sur mesure.

Note de la conceptrice : Ce modèle n'est pas un "fine-tune" d'une base existante. C'est une création originale (architecture et poids) née de zéro.

📊 La Famille de Modèles

Nous avons développé une gamme adaptée à tous les besoins computationnels, de la recherche intensive à l'utilisation mobile :

Modèle Paramètres Usage Cible
Nelya-neko-9B 🏆 9 Milliards Haute précision, Nekolienne.
Nelya-neko-6B 6 Milliards Équilibre parfait entre performance et rapidité.
Nelya-neko-4B 4 Milliards Idéal pour l'intégration accessible sur TPU.
Nelya-neko-1B 1 Milliard Utilisation rapide sur matériel limité.
Tiny-Nelya-neko 124 Millions Modèle "Edge" ultra-Tiny

🛠 Caractéristiques Techniques

  • Architecture : Transformer Decoder-only (Original design by Clemylia).
  • Langue Native : Nekolien 🐱
    • Génération créative et respect des règles grammaticales complexes.
    • Analyse morphologique de la conlang.
  • Tokenizer Nekolien, afin d'éviter la fragmentation excessive des racines Nekoliennes.

🎨 Pourquoi choisir Nelya ?

  • Souveraineté Linguistique : Aucun biais de langue naturelle provenant de modèles pré-existants (GPT, Llama, etc.).
  • Flexibilité : Décliné en 5 tailles pour s'adapter à votre infrastructure (VRAM).

✨ Usage et utilisation

Entraîner seulement 100% sur le nekolien (ne connait aucune autre langue).

🛡️ Licence & Crédits

Développé avec passion par Clemylia (Conlanger-LLM-clem). Propriété intellectuelle réservée sur l'architecture et le corpus linguistique.

Exemple utilisation grand public (Kaggle) :

# 1. Installation des dépendances nécessaires
!pip install -U transformers bitsandbytes accelerate

from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
import torch
import os

# Forcer l'utilisation des deux GPUs si Kaggle ne les voit pas par défaut
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"

# 2. Configuration de la quantification 4-bit (QLoRA style)
# On utilise float16 pour le calcul pour matcher les capacités des T4
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
)

model_id = "Conlanger-LLM-CLEM/Nelya-neko-9b"

# 3. Chargement du Tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_id)

# 4. Chargement du modèle avec répartition automatique (Sharding)
# device_map="auto" va diviser les couches du 9b entre GPU 0 et GPU 1
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    quantization_config=bnb_config,
    device_map="auto", 
    torch_dtype=torch.float16,
    low_cpu_mem_usage=True # Important pour éviter de saturer la RAM système de Kaggle
)

# Affichage de la répartition pour vérifier que les 2 GPUs travaillent
print(f"Répartition des couches : {model.hf_device_map}")

# 5. Préparation de l'entrée
# Note : On ne fait plus .to(device) manuellement, accelerate s'en occupe avec device_map
input_text = "Ti eta "
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")

# 6. Génération
outputs = model.generate(
    **input_ids, 
    max_new_tokens=30, # On peut se permettre un peu plus avec 32Go !
    do_sample=True, 
    temperature=0.7,
    top_p=0.9
)

print("-" * 30)
print("RÉPONSE NELYA-NEKO :")
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
print("-" * 30)
print('fin')
Downloads last month
194
Safetensors
Model size
9B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including Conlanger-LLM-CLEM/Nelya-neko-9b