🚀 YZ Forum'a Hoş Geldiniz!

Türkiye'nin yapay zeka topluluğuna katılın. Bilginizi paylaşın, öğrenin ve geleceği birlikte şekillendirin.

Ücretsiz Kayıt Ol

Rehber Local AI Kurulum Rehberi: Kendi Bilgisayarında AI Çalıştır!

KalorifyKalorify Doğrulanmış Kullanıcı

Uygulama Geliştirme
Kayıtlı Kullanıcı
Katılım
24 Ağu 2025
Mesajlar
52
Tepkime puanı
10
Web sitesi
neyedimben.com
💻 Local AI Kurulum Rehberi: Kendi Bilgisayarında AI Çalıştır!

Merhaba tekno-dostlar! 👋

İnternetsiz AI, veri gizliliği ve sınırsız kullanım istiyorsanız doğru yerdesiniz! Bu rehberle kendi bilgisayarınızda ChatGPT kalitesinde AI'lar çalıştırabileceksiniz.

🎯 Neden Local AI?​


  • ✅ Tam gizlilik: Verileriniz bilgisayarınızdan çıkmaz
  • ✅ Sınırsız kullanım: Aylık limit yok
  • ✅ İnternet bağımsızlığı: Offline çalışma
  • ✅ Ücretsiz: Tek seferlik kurulum
  • ✅ Özelleştirilebilir: Kendi ihtiyacınıza göre ayarlama

⚙️ Sistem Gereksinimleri​


BileşenMinimumÖnerilenİdeal
RAM8GB16GB32GB+
GPUEntegreGTX 1060 6GBRTX 4090
Depolama50GB100GB SSD500GB NVMe
CPU4 çekirdek8 çekirdek16+ çekirdek

🛠️ En Popüler Local AI Araçları​


1. Ollama (En Kolay)


Kurulum:
Kod:
# Windows/Mac/Linux
1. ollama.com'dan indir
2. Kur ve çalıştır
3. Terminal: ollama pull llama2
4. Terminal: ollama run llama2

Avantajları:
  • Tek tıkla kurulum
  • 50+ hazır model
  • Otomatik güncelleme
  • Web arayüzü

2. LM Studio (Görsel Arayüz)


Özellikler:
  • Kullanıcı dostu arayüz
  • Model karşılaştırma
  • Chat geçmişi
  • API desteği

Kurulum:
  1. lmstudio.ai'den indir
  2. Kurulumu tamamla
  3. Model seç ve indir
  4. Chat'e başla!

3. Text Generation WebUI


İleri seviye kullanıcılar için:
  • Maksimum özelleştirme
  • Gelişmiş parametreler
  • Plugin desteği
  • Model fine-tuning

🎯 Önerilen AI Modelleri​


💚 Başlangıç Seviyesi​


Llama 2 7B
  • Boyut: 4GB RAM
  • Hız: Orta
  • Kalite: İyi
  • Kullanım: Genel sohbet, basit görevler

Mistral 7B
  • Boyut: 4GB RAM
  • Hız: Hızlı
  • Kalite: Çok iyi
  • Kullanım: Kod yazma, analiz

🔥 İleri Seviye​


Llama 2 13B
  • Boyut: 8GB RAM
  • Hız: Orta-yavaş
  • Kalite: Çok iyi
  • Kullanım: Karmaşık görevler

Code Llama 34B
  • Boyut: 20GB RAM
  • Hız: Yavaş
  • Kalite: Mükemmel
  • Kullanım: Profesyonel kod yazma

⚡ Adım Adım Kurulum​


🥇 Yöntem 1: Ollama (Önerilen)​


  1. Bu bağlantı ziyaretçiler için gizlenmiştir. Görmek için lütfen giriş yapın veya üye olun.
    adresine git
  2. İşletim sisteminize göre indir
  3. Kurulumu tamamla
  4. Terminal/Command Prompt aç
  5. ollama pull llama2 yaz
  6. ollama run llama2 ile başlat

Kod:
# Model listesi
ollama list

# Model indirme
ollama pull codellama
ollama pull mistral

# Model çalıştırma
ollama run llama2
ollama run mistral

# Model silme 
ollama rm model_name

# Servis başlatma
ollama serve

🥈 Yöntem 2: LM Studio​


  1. Bu bağlantı ziyaretçiler için gizlenmiştir. Görmek için lütfen giriş yapın veya üye olun.
    'den indir
  2. Uygulamayı aç
  3. "Discover" sekmesinden model seç
  4. Download'a tıkla (4-20GB sürebilir)
  5. "Chat" sekmesine geç
  6. Modeli yükle ve sohbete başla

🔧 Performans Optimizasyonu​


GPU Hızlandırma​


NVIDIA GPU için:
Kod:
# CUDA kurulumu gerekli
# Ollama otomatik GPU kullanır
# LM Studio'da GPU acceleration açın

AMD GPU için:
Kod:
# ROCm kurulumu
# Linux'ta daha iyi destek
# Windows'ta sınırlı

Bellek Yönetimi​


  • Swap artırın: Yetersiz RAM'de yardımcı
  • Gereksiz programları kapatın
  • Model boyutunu RAM'e göre seçin
  • Batch size'ı düşürün

💡 Kullanım İpuçları​


Prompt Optimizasyonu​


Etkili prompt yazma:
  • Açık ve spesifik olun
  • Örnekler verin
  • Adım adım talep edin
  • Bağlam sağlayın

Örnek:
Kötü: "Kod yaz"
İyi: "Python'da liste elemanlarını büyükten küçüğe sıralayan ve ilk 5'ini döndüren fonksiyon yaz. Örnek girdi ve çıktı da ver."

Model Seçimi​


  • Genel kullanım: Llama2 7B
  • Kod yazma: Code Llama, Mistral
  • Yaratıcı yazma: Llama2 13B+
  • Hızlı cevap: Mistral 7B

🐛 Yaygın Sorunlar ve Çözümler​


Problem: "Model indirilmiyor"
Çözüm: İnternet bağlantısı ve disk alanı kontrol edin

Problem: "GPU tanınmıyor"
Çözüm: CUDA/ROCm driver'larını güncelleyin

Problem: "RAM yetersiz"
Çözüm: Daha küçük model seçin veya swap artırın

Problem: "Çok yavaş cevap veriyor"
Çözüm: GPU acceleration açın, küçük model deneyin

Problem: "Sistem donuyor"
Çözüm: Model boyutunu RAM'inize göre ayarlayın

Problem: "Kalitesiz cevaplar"
Çözüm: Daha büyük model deneyin, prompt'u geliştirin

🔐 Güvenlik ve Gizlilik​


Avantajlar:
  • ✅ Veriler local kalır
  • ✅ İnternet bağlantısı gerekmiyor
  • ✅ Şirket sunucularında kayıt yok
  • ✅ Sansür yok

Dikkat edilecekler:
  • ⚠️ Model indirirken güvenilir kaynak kullanın
  • ⚠️ Düzenli güvenlik güncellemesi yapın
  • ⚠️ Önemli verileri yedekleyin

📊 Performans Karşılaştırması​


ModelRAMHızKaliteKullanım Alanı
Llama2 7B4GB⭐⭐⭐⭐⭐⭐⭐⭐Genel amaçlı
Mistral 7B4GB⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐Kod, analiz
Llama2 13B8GB⭐⭐⭐⭐⭐⭐⭐⭐Karmaşık görevler
Code Llama 34B20GB⭐⭐⭐⭐⭐⭐⭐Profesyonel kod

🚀 Gelişmiş Kullanım​


API Kullanımı​


Ollama API:
Kod:
# REST API
curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "Merhaba nasılsın?"
}'

# Python ile
import requests
response = requests.post('http://localhost:11434/api/generate',
    json={'model': 'llama2', 'prompt': 'Hello'})

Custom Model Training​


  • Kendi verilerinizle fine-tuning
  • Domain-specific model oluşturma
  • LoRA adapterleri kullanma
  • PEFT teknikleri

🎯 Öneriler ve Sonuç​


Yeni başlayanlar için:
1. Ollama + Llama2 7B ile başlayın
2. Temel prompt yazma öğrenin
3. Farklı modelleri deneyin

Orta seviye için:
1. LM Studio'yu keşfedin
2. GPU acceleration kurun
3. API entegrasyonu yapın

İleri seviye için:
1. Text Generation WebUI deneyin
2. Custom model training'e başlayın
3. Production deployment planlayın

Hangi yöntemi deneyeceksiniz? Sisteminizin özellikleri neler?

Local AI dünyasına hoş geldiniz! 🚀

#LocalAI #Ollama #LMStudio #YapayZeka #Privacy #SelfHosted
 

! Lütfen dikkat !

Forumumuzda kaliteli ve etkileşimli bir ortam sağlamak adına, lütfen konu dışı ve gereksiz cevaplar vermekten kaçının. Forum kurallarına aykırı davranışlar yasaktır. Hep birlikte daha verimli ve düzenli bir platform oluşturmak için kurallara uyalım.

Geri
Üst