- Konu Yazar
- #1

Merhaba tekno-dostlar!

İnternetsiz AI, veri gizliliği ve sınırsız kullanım istiyorsanız doğru yerdesiniz! Bu rehberle kendi bilgisayarınızda ChatGPT kalitesinde AI'lar çalıştırabileceksiniz.
Neden Local AI?
Tam gizlilik: Verileriniz bilgisayarınızdan çıkmaz
Sınırsız kullanım: Aylık limit yok
İnternet bağımsızlığı: Offline çalışma
Ücretsiz: Tek seferlik kurulum
Özelleştirilebilir: Kendi ihtiyacınıza göre ayarlama
Sistem Gereksinimleri
Bileşen | Minimum | Önerilen | İdeal |
---|---|---|---|
RAM | 8GB | 16GB | 32GB+ |
GPU | Entegre | GTX 1060 6GB | RTX 4090 |
Depolama | 50GB | 100GB SSD | 500GB NVMe |
CPU | 4 çekirdek | 8 çekirdek | 16+ çekirdek |
En Popüler Local AI Araçları
1. Ollama (En Kolay)
Kurulum:
Kod:
# Windows/Mac/Linux
1. ollama.com'dan indir
2. Kur ve çalıştır
3. Terminal: ollama pull llama2
4. Terminal: ollama run llama2
Avantajları:
- Tek tıkla kurulum
- 50+ hazır model
- Otomatik güncelleme
- Web arayüzü
2. LM Studio (Görsel Arayüz)
Özellikler:
- Kullanıcı dostu arayüz
- Model karşılaştırma
- Chat geçmişi
- API desteği
Kurulum:
- lmstudio.ai'den indir
- Kurulumu tamamla
- Model seç ve indir
- Chat'e başla!
3. Text Generation WebUI
İleri seviye kullanıcılar için:
- Maksimum özelleştirme
- Gelişmiş parametreler
- Plugin desteği
- Model fine-tuning
Önerilen AI Modelleri
Başlangıç Seviyesi
Llama 2 7B
- Boyut: 4GB RAM
- Hız: Orta
- Kalite: İyi
- Kullanım: Genel sohbet, basit görevler
Mistral 7B
- Boyut: 4GB RAM
- Hız: Hızlı
- Kalite: Çok iyi
- Kullanım: Kod yazma, analiz
İleri Seviye
Llama 2 13B
- Boyut: 8GB RAM
- Hız: Orta-yavaş
- Kalite: Çok iyi
- Kullanım: Karmaşık görevler
Code Llama 34B
- Boyut: 20GB RAM
- Hız: Yavaş
- Kalite: Mükemmel
- Kullanım: Profesyonel kod yazma
Adım Adım Kurulum
Yöntem 1: Ollama (Önerilen)
-
Bu bağlantı ziyaretçiler için gizlenmiştir. Görmek için lütfen giriş yapın veya üye olun.
- İşletim sisteminize göre indir
- Kurulumu tamamla
- Terminal/Command Prompt aç
ollama pull llama2
yazollama run llama2
ile başlat
Kod:
# Model listesi
ollama list
# Model indirme
ollama pull codellama
ollama pull mistral
# Model çalıştırma
ollama run llama2
ollama run mistral
# Model silme
ollama rm model_name
# Servis başlatma
ollama serve
Yöntem 2: LM Studio
-
Bu bağlantı ziyaretçiler için gizlenmiştir. Görmek için lütfen giriş yapın veya üye olun.
- Uygulamayı aç
- "Discover" sekmesinden model seç
- Download'a tıkla (4-20GB sürebilir)
- "Chat" sekmesine geç
- Modeli yükle ve sohbete başla
Performans Optimizasyonu
GPU Hızlandırma
NVIDIA GPU için:
Kod:
# CUDA kurulumu gerekli
# Ollama otomatik GPU kullanır
# LM Studio'da GPU acceleration açın
AMD GPU için:
Kod:
# ROCm kurulumu
# Linux'ta daha iyi destek
# Windows'ta sınırlı
Bellek Yönetimi
- Swap artırın: Yetersiz RAM'de yardımcı
- Gereksiz programları kapatın
- Model boyutunu RAM'e göre seçin
- Batch size'ı düşürün
Kullanım İpuçları
Prompt Optimizasyonu
Etkili prompt yazma:
- Açık ve spesifik olun
- Örnekler verin
- Adım adım talep edin
- Bağlam sağlayın
Örnek:
Kötü: "Kod yaz"
İyi: "Python'da liste elemanlarını büyükten küçüğe sıralayan ve ilk 5'ini döndüren fonksiyon yaz. Örnek girdi ve çıktı da ver."
Model Seçimi
- Genel kullanım: Llama2 7B
- Kod yazma: Code Llama, Mistral
- Yaratıcı yazma: Llama2 13B+
- Hızlı cevap: Mistral 7B
Yaygın Sorunlar ve Çözümler
Problem: "Model indirilmiyor"
Çözüm: İnternet bağlantısı ve disk alanı kontrol edin
Problem: "GPU tanınmıyor"
Çözüm: CUDA/ROCm driver'larını güncelleyin
Problem: "RAM yetersiz"
Çözüm: Daha küçük model seçin veya swap artırın
Çözüm: İnternet bağlantısı ve disk alanı kontrol edin
Problem: "GPU tanınmıyor"
Çözüm: CUDA/ROCm driver'larını güncelleyin
Problem: "RAM yetersiz"
Çözüm: Daha küçük model seçin veya swap artırın
Problem: "Çok yavaş cevap veriyor"
Çözüm: GPU acceleration açın, küçük model deneyin
Problem: "Sistem donuyor"
Çözüm: Model boyutunu RAM'inize göre ayarlayın
Problem: "Kalitesiz cevaplar"
Çözüm: Daha büyük model deneyin, prompt'u geliştirin
Çözüm: GPU acceleration açın, küçük model deneyin
Problem: "Sistem donuyor"
Çözüm: Model boyutunu RAM'inize göre ayarlayın
Problem: "Kalitesiz cevaplar"
Çözüm: Daha büyük model deneyin, prompt'u geliştirin
Güvenlik ve Gizlilik
Avantajlar:
Veriler local kalır
İnternet bağlantısı gerekmiyor
Şirket sunucularında kayıt yok
Sansür yok
Dikkat edilecekler:
Model indirirken güvenilir kaynak kullanın
Düzenli güvenlik güncellemesi yapın
Önemli verileri yedekleyin
Performans Karşılaştırması
Model | RAM | Hız | Kalite | Kullanım Alanı |
---|---|---|---|---|
Llama2 7B | 4GB | ![]() ![]() ![]() ![]() | ![]() ![]() ![]() ![]() | Genel amaçlı |
Mistral 7B | 4GB | ![]() ![]() ![]() ![]() ![]() | ![]() ![]() ![]() ![]() ![]() | Kod, analiz |
Llama2 13B | 8GB | ![]() ![]() ![]() | ![]() ![]() ![]() ![]() ![]() | Karmaşık görevler |
Code Llama 34B | 20GB | ![]() ![]() | ![]() ![]() ![]() ![]() ![]() | Profesyonel kod |
Gelişmiş Kullanım
API Kullanımı
Ollama API:
Kod:
# REST API
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Merhaba nasılsın?"
}'
# Python ile
import requests
response = requests.post('http://localhost:11434/api/generate',
json={'model': 'llama2', 'prompt': 'Hello'})
Custom Model Training
- Kendi verilerinizle fine-tuning
- Domain-specific model oluşturma
- LoRA adapterleri kullanma
- PEFT teknikleri
Öneriler ve Sonuç
Yeni başlayanlar için:
1. Ollama + Llama2 7B ile başlayın
2. Temel prompt yazma öğrenin
3. Farklı modelleri deneyin
Orta seviye için:
1. LM Studio'yu keşfedin
2. GPU acceleration kurun
3. API entegrasyonu yapın
İleri seviye için:
1. Text Generation WebUI deneyin
2. Custom model training'e başlayın
3. Production deployment planlayın
Hangi yöntemi deneyeceksiniz? Sisteminizin özellikleri neler?
Local AI dünyasına hoş geldiniz!

#LocalAI #Ollama #LMStudio #YapayZeka #Privacy #SelfHosted