Model Card for Lodos-24B-Instruct-2510

This model is a fine-tuned version of unsloth/Mistral-Small-3.2-24B-Instruct-2506. It has been trained using TRL.

Quick start

from transformers import pipeline

question = "Eğer bir zaman makinen olsaydı ve yalnızca geçmişe ya da geleceğe bir kez gidip geri dönemeyecek olsaydın, hangisini seçerdin ve neden?"
generator = pipeline("text-generation", model="hasanbasbunar/Lodos-24B-Instruct-2510", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])

Example output

Show actual response (Turkish)

Bu soruya kesin bir “doğru” yanıtı yok. Hangi seyahati tercih edeceğin, kişisel değerlerin, motivasyonların ve risk algısının bir sentezidir. Aşağıda bu iki seçeneği farklı boyutlarda incelemek, size karar sizin için daha net olabilir.


1. Geçmişe Tek Seyahat: “Kazandırılmış” ve “Öğrenilecek” Bir Deneyim

a) Bilimsel ve Tarihî Merak

Geçmişteki bir anı “test etmek”, tarihsel kayıtların doğruluğunu doğrudan gözlemlemek gibi bir fırsat sunar. Örneğin Antik Yunan’da Sokrates’in sohbeti, Römalı gladyatörlerin arenada savaşı veya 15. yüzyılda Leonardo da Vinci’nin atölyesinde çalışması gibi olaylar, tarihsel belgelendirmelerden çelişiyor olabilir. Bu tür bir deneyim, tarih biliminde “gözlemci” olarak konumlanmanıza ve akademik tartışmalara yeni veriler eklemenize olanak tanır.

b) Duygusal ve Kültürel Bağ

Bir ailenizin ya da toplulukların geçmişiyle doğrudan karşılaşmak, “kaybolmuş” bir kökleri ya da bir nesli yeniden canlandırma imkanı verir. Örneğin, Osmanlı’nın 16. yüzyıl sarayında bir vezirin görevi, ya da İkinci Dünya Savaşı sonrası Berlin’in sokağındaki bir sivilin yaşamı gibi durumlar, nesiller boyunca aktarılan anekdotları doğrulamak ya da yeni bir perspektif kazanmak açısından zengin bir deneyim sunar.

c) Risk ve Etik Sorunlar

Geçmişe müdahale etmek, “kuyruk etkisi” (butterfly effect) riskini taşır: bir olayın tam olarak ne kadar değiştiği bilinemez. Özellikle savaş, politik devrim veya bilimsel keşif gibi kritik noktalar, tarih akışını kökten değiştirebilir. Bu durumda “gözlemci” olmak yerine “katılımcı” olmak, sonucu tahmin edilemez hâle getirir.


2. Geleceğe Tek Seyahat: “Görüşme” ve “Planlama” Fırsatı

a) Bilimsel ve Teknolojik Öngörü

Gelecekteki bir yılın ya da yüzyılın teknolojik durumu, günümüzdeki araştırma alanlarını yönlendirebilir. Örneğin 2100 yılındaki bir şehirdeki sürdürülebilir enerji sistemleri, akıllı sağlık implantları veya uzay turizmi gibi görseller, mevcut mühendislik projelerine yeni bir vizyon kazandırmak için değerli bir motivasyon kaynağıdır.

b) Sosyal ve Çevresel Bilinç

İklim değişikliği, nüfus artışı ve yerleşim biçimleri gibi büyük ölçekli sorunların gelecekteki somutlaşması, bireysel ve toplumsal sorumluluk bilincini güçlendirebilir. Örneğin 2045’te bir metropoldeki su kıtlığı, günümüzde su yönetimi politikalarına yeni bir öncelik eklemek için bir uyarı işlevi görür.

c) Risk ve Belirsizlik

Gelecek, bizim hâlâ “öngöremeyebileceğimiz bir boşluk” olarak algılanır. Bu yüzden gözlemci olmak, yani sadece “görmek” ve “anlamak” bir risk taşır: keşiflerinizin ne kadar etkili olacağı önceden tahmin edilemez. Ayrıca, gelecekteki bir toplumun değerleri ve normları bizimle tam olarak aynı olmayabilir; bu durum, “kültürel çelişkiler” yaratabilir.


3. Karar Sınıtma Matrisi

Açıklama Geçmişe Yönelim Geleceğe Yönelim
Bilimsel/akademik merak Tarihî olayların doğruluğunu doğrudan test etmek, yeni veri toplama Gelecek teknolojilerinin önizleme, araştırma yönlendirme
Duygusal/kültürel bağ Aile, topluluk geçmişiyle doğrudan temas, kaybolmuş kökleri canlandırma Gelecekteki toplumsal dinamikler, yeni kimlik deneyimi
Risk (kuyruk etkisi) Müdahale riski yüksek; tarih akışını değiştirme potansiyeli Müdahale riski daha az; sadece “gözlem” ile sınırlı
Etik sorun Tarihî olayları etkilemek ahlaki ikilemler yaratabilir Gelecekteki toplumun değerleri hâlâ bilinmeyebilir, uyumsuzluk riski
Kişisel motivasyon “Geçmişi anlamak, öğrenmek” isteği “Geleceği görmek, planlamak” isteği

Bu matrisi kendinize göre ağırlıklandırarak tercihinizi şekillendirebilirsiniz.


4. Pratik Öneriler

a) Gözlemci Modu

  • Geçmiş: Belirli bir tarihî olayın içinde bir “gizli” gözlemci olarak kalın. Katılımcı olmak yerine sadece “dinleyin, not alın”. Bu sayede riskten kaçınılır, aynı zamanda objektif veri toplama imkanı elde edilir.
  • Gelecek: Gelecekteki bir şehirde “turist” gibi bir rol üstlenin. Şehirin altyapısını, insan ilişkilerini ve teknolojik ortamını gözlemleyin. Bu, “etkileşim” riskini minimize eder.

b) Risk Yönetimi

  • Geçmiş: “Kendinizi bir tarihî olayın içinde tutmak” yerine, “olayın sonunda bir anı çekin” gibi sınırlı bir eylem planlayın. Örneğin, Sokrates’in son konuşmasını dinleyip not alıp bir anı çekmek, tarihî kayıtlara doğrudan katkı sağlar.
  • Gelecek: “Gelecekteki bir teknoloji sergisine katılın” gibi, sadece “görmek” ve “öğrenmek” amacıyla hareket edin. Bu, “müdahale” riskini ortadan kaldırır.

5. Sonuç: Hangi Seyahat size daha uygun?

a) Bilimsel ve tarihî meraklıysanız

Geçmişe tek seyahat, tarihî olayların doğruluğunu doğrudan test etmeniz ve yeni veri toplamanız açısından daha değerli bir deneyim sunabilir. Ancak müdahale riskine karşı “gözlemci” modunu tercih edin.

b) Gelecekteki teknoloji ve toplumsal dinamiklere meraklıysanız

Geleceğe tek seyahat, gelecek teknolojilerinin önizleme imkanı ve sosyal planlamaya yeni bir bakış açısı sağlar. “Gözlemci” olarak sınırlı bir eylem planı (örneğin sergi katılması) riskten kaçınmanıza yardımcı olur.

c) Duygusal ve kültürel bağlarınızı güçlendirmek isterseniz

Geçmişe seyahat, ailenizin ya da toplulukların geçmişiyle doğrudan temas kurmanıza olanak tanır; bu da kimlik ve aidiyet duygusunu derinleştirebilir.


6. Özet

  • Geçmişe tek seyahat: Tarihî olayların doğruluğunu doğrudan gözlemlemek, yeni veri toplama ve duygusal/kültürel bağları güçlendirme fırsatı. Risk yüksek, “gözlemci” modu önerilir.
  • Geleceğe tek seyahat: Gelecek teknolojilerini ve toplumsal dinamiklerini ön izleme, bilimsel araştırma ve sosyal planlama yönlendirme potansiyeli. Risk daha az, “gözlemci” modu önerilir.

Kendiniz için en çok değer verdiğiniz faktör (bilim, duygusal bağ, risk toleransı) ışığında kararınızı şekillendirin.

GGUF variants (llama.cpp / LM Studio / Ollama)

Training procedure

Visualize in Weights & Biases

This model was trained with SFT.

Fine-tuning details

  • Base model: unsloth/Mistral-Small-3.2-24B-Instruct-2506

  • Method: Full supervised fine-tuning (TRL SFTTrainer)

  • Context window kept at 131,072 tokens (base model). SFT instructions are shorter.

  • Split: 95% train / 5% eval

  • Hyperparameters (brief): learning rate 1e-5; scheduler: cosine; batch size = per‑device 4 with grad‑accum 8 (effective 32)

  • Compute: NVIDIA B200 GPU

Dataset

  • Name: AlicanKiraz0/Turkish-SFT-Dataset-v1.0 (Hugging Face)
  • Link: Hugging Face – AlicanKiraz0/Turkish-SFT-Dataset-v1.0
  • License: MIT
  • Language: Turkish (tr)
  • Size: 5,500 samples; 3,000–4,500 tokens/response (20M+ tokens)
  • Tasks: instruction following, question answering, text generation, long-form responses, safety/refusal, reasoning, format-constrained outputs
  • Acknowledgements: thanks to Alican Kiraz for releasing the dataset.
  • Note: largely synthetic dataset; factual accuracy is not guaranteed. Consider RAG/post-hoc verification depending on your use case.

Framework versions

  • TRL: 0.22.2
  • Transformers: 4.56.2
  • Pytorch: 2.8.0+cu129
  • Datasets: 4.3.0
  • Tokenizers: 0.22.0

Citations

Dataset

@dataset{kiraz_2025_turkish_sft_v10,
  author       = {Alican Kiraz},
  title        = {Turkish SFT Dataset v1.0},
  year         = {2025},
  howpublished = {Hugging Face: AlicanKiraz0/Turkish-SFT-Dataset-v1.0},
  license      = {MIT}
}

TRL

@misc{vonwerra2022trl,
    title        = {{TRL: Transformer Reinforcement Learning}},
    author       = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
    year         = 2020,
    journal      = {GitHub repository},
    publisher    = {GitHub},
    howpublished = {\url{https://github.com/huggingface/trl}}
}
Downloads last month
3
Safetensors
Model size
24B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hasanbasbunar/Lodos-24B-Instruct-2510