7 milyar parametreli dil modeli artık 4 GB RAM’e sığar, Snapdragon 8 Gen 3 üzerinde saniyede 8 ila 12 jeton üretir ve ağı hiç kullanmadan yanıt verir. 2026’da Android’de yerel yapay zekâ böyle görünür — ve son 12 ayda hesap, abonelik ve telemetri olmadan telefona sohbet botu koyan bir uygulama dalgasının nedeni budur.
2026’da Android’de yerel yapay zekâ çalıştırmak için sekiz en iyi uygulamayı test ettik. Her biri model seçimi, orta segment bir cihazda saniye başına jeton, RAM kullanımı, GGUF veya MLC desteği, çevrimdışı güvenilirlik ve ilk soruyu sorabilmeniz için gereken kurulum miktarına göre değerlendirildi. Ücretsiz, açık kaynaklı ve ücretli seçeneklerin hepsi dahil.
Yerel yapay zekâ uygulamasında nelere bakmalı
Yerel LLM uygulamaları aynı değildir. Yarım düzine yüklemeden önce, kullanılabilir bir aracı teknik bir demodan ayıran şeyi bilmek işe yarar.
- Model biçimi desteği. GGUF, 2026’da cihaz üzerinde baskın biçimdir; llama.cpp ve çoğu topluluk modeli bunu kullanır. Bazı uygulamalar yalnızca kendi paketlenmiş modellerini destekler — bu kırmızı bayrak.
- Bellek ayak izi. 4 bit kuantize 3B model yaklaşık 2 GB RAM ister. 7B model 4 ila 6 GB ister. Telefonunuzda toplam 6 GB RAM varsa, 7B’nin üzerindeki her şey takaslanır ve çöker.
- Donanım hızlandırması. Pixel 8/9 ve Snapdragon 8 Gen 3 telefonlarda OpenCL veya Vulkan GPU boşaltması ya da NPU desteği arayın. Yalnızca CPU uygulamaları çalışır, ancak jetonlar daha yavaş gelir.
- Uygulama içi model kütüphanesi. Hugging Face’ten indiren yerleşik bir model tarayıcısı, .gguf dosyalarını elle yüklemekten çok daha az dert.
- Gizlilik duruşu. Amaç çevrimdışı çalışmaktır. Uygulamanın analitik için eve arama yapıp yapmadığını, hesap isteyip istemediğini veya “iyileştirme” için istemleri yükleyip yüklemediğini kontrol edin.
- İleri düzey özellikler. Özel sistem istemleri, persona ön ayarları, yerel belgeler üzerinde RAG ve OpenAI uyumlu API uç noktaları, yenilik geçtikten sonra önem kazanır.
Hızlı karşılaştırma
| Uygulama | En iyi olduğu alan | Platformlar | Ücretsiz plan | Başlangıç fiyatı | Aptoide indirmeleri |
|---|---|---|---|---|---|
| PocketPal AI | Genel olarak en iyi, kolay GGUF | Android, iOS | Evet | Ücretsiz | 1M+ |
| Google AI Edge Gallery | Resmi Google modelleri | Android | Evet | Ücretsiz | 100K+ |
| MLC Chat | MLC derlenmiş modellerle hız | Android, iOS, masaüstü | Evet | Ücretsiz | n/a (GitHub) |
| Maid | FOSS llama.cpp sarmalayıcısı | Android, masaüstü | Evet | Ücretsiz | 10K+ |
| ChatterUI | Karakter sohbeti, rol yapma | Android | Evet | Ücretsiz | n/a (GitHub) |
| Layla | Ücretli karakter sohbeti | Android, iOS, masaüstü | 7 günlük deneme | $5.99/ay | 5K |
| Termux + Ollama | Tam Linux araç zinciri | Android | Evet | Ücretsiz | 10M+ |
| SmolChat | Hafif 1B–3B modeller | Android | Evet | Ücretsiz | n/a (GitHub) |
2026’da Android’de yerel yapay zekâ için 8 en iyi uygulama
1. PocketPal AI — yerel LLM’ye ilk kez başlayanlar için en iyisi
PocketPal AI, cihaz üzerindeki LLM’leri sonunda sıradan bir Android uygulaması gibi hissettiren uygulamadır. Aptoide sürümü 1.14.0 ve bir milyondan fazla kuruluma sahip; uygulama içi model tarayıcısı GGUF dosyalarını doğrudan Hugging Face’ten çeker, dosya yöneticisine gerek kalmaz. Kutudan çıktığında makul kuantizasyon varsayılanları, özel sistem istemleri olan çalışan bir sohbet arayüzü ve cihaz başına saniye başına jeton gösteren kıyaslama bulunur. Yerel LLM kullanımı için PocketPal AI, Android’de en düzgün giriş rampasıdır.
Zayıf yönleri: Yerel ses girişi yok. 8K jetondan uzun bağlam modelleri, 8 GB’dan az RAM’li telefonlarda keskin şekilde yavaşlar. Diğer uygulamaları bağlamak için API sunucu modu henüz yok.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, MIT altında tamamen açık kaynak
- Ücretli: geliştiriciyi desteklemek için isteğe bağlı GitHub sponsorluğu
Platformlar: Android, iOS
Özet: Telefonda LLM çalıştırmayı ilk denemeniz ise PocketPal AI’yi seçin. Android kullanan herkese önce bunu denemeyi öneririz.
2. Google AI Edge Gallery — en iyi ücretsiz resmi seçenek
Google AI Edge Gallery, Gemma ve diğer cihaz üzeri modeller için Google’ın araştırma vitrinidir ve büyük bir satıcıdan gelen en cilalı ücretsiz seçenektir. Aptoide sürümü 30,7 MB’tır; paket Research at Google olarak imzalanır ve desteklenen telefonlarda donanım hızlandırmasıyla birlikte sohbet, özetleme, görüntü sınıflandırması ve isteme dayalı görüntü oluşturma için çalışmaya hazır demolar içerir. Pixel 8 Pro ve Pixel 9, AICore çerçevesi üzerinden cihaz içi NPU’yu açar; bu da saniye başına jetonda belirgin şekilde daha hızlı sonuç verir.
Zayıf yönleri: Model kataloğu Google tarafından seçilir; keyfi GGUF dosyaları ekleyemezsiniz. Bazı demo özellikleri Pixel bekler ve diğer cihazlarda sessizce daha yavaş CPU moduna düşer.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, hesap gerekmez
- Ücretli: yok
Platformlar: yalnızca Android
Özet: Pixel 8 veya 9’unuz varsa ve resmi Gemma deneyimi istiyorsanız Google AI Edge Gallery’yi seçin. Özel topluluk modelleri yüklemek istiyorsanız atlayın.
3. MLC Chat — ham hız için en iyisi
MLC Chat, MLC LLM projesinin referans Android uygulamasıdır; bu açık kaynak derleyici yığını Llama, Mistral ve Qwen ağırlıklarını alıp TVM aracılığıyla GPU hızlandırmalı çekirdeklere derler. Sonuç, aynı Snapdragon donanımında herhangi bir GGUF tabanlı uygulamaya karşı tutarlı olarak en yüksek saniye başına jeton sayılarıdır — genellikle 2 ila 3 kat önde — ve proje 2025-2026 boyunca Qwen 2.5 ve Llama 3.3 yapıları için düzenli güncellendi. Yerel LLM iş yükleri için MLC Chat, iş hacmi gerçekten önemliyse seçimdir.
Zayıf yönleri: Aptoide veya Google Play’de değil. GitHub sürümler sayfasından yüklersiniz; bazı kullanıcıların atlamayacağı bir yan yükleme adımıdır. Model seçimi önceden derlenmiş MLC kataloğuyla sınırlıdır; yeni model eklemek ağırlıkları kendinizin yeniden derlemesi anlamına gelir.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, Apache-2.0 lisanslı
- Ücretli: yok
Platformlar: Android, iOS, Windows, macOS, Linux
Özet: Kıyaslama sayıları sizin için önemliyse MLC Chat’i seçin. GitHub’dan APK yüklemekten rahatsızsanız atlayın.
4. Maid — en iyi FOSS llama.cpp sarmalayıcısı
Maid, llama.cpp için bir Flutter ön uçtur; Aptoide’da Android sürümü ve çoğu platformda masaüstü sürümü sunar. 2.1.51 sürümü karakter kartları, bağlam uzunluğu ve sıcaklık için ayarlar paneli ve topluluk tarafından önerilen modeller için doğrudan indirme düğmeleri ekler. Yerel LLM kullanımı için Maid, bu listedeki en karakterli FOSS uygulamasıdır; araştırma demosu yerine sohbet uygulaması hissi verir.
Zayıf yönleri: Android’de GPU hızlandırması yok; bu yüzden saniye başına jeton MLC Chat’e göre çok geride kalır. İlk model indirmeleri yavaştır çünkü seçilmiş liste ücretsiz katmanlarda kısıtlanan Hugging Face aynalarından çeker.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, MIT lisanslı
- Ücretli: yok
Platformlar: Android, Windows, macOS, Linux
Özet: FOSS saflığı önemliyse ve aynı modellerle konuşan bir masaüstü istemcisi de istiyorsanız Maid’i seçin. Yalnızca telefon hızı önemliyse atlayın.
5. ChatterUI — karakter sohbeti ve rol yapma için en iyisi
ChatterUI, açık kaynaklı karakter sohbeti ön ucu SillyTavern’ın Android karşılığıdır. Cihaz üzerinde llama.cpp çalıştırır, standart SillyTavern JSON biçiminde karakter kartlarını destekler ve web arama kancaları, yerel dosyalar üzerinde RAG ve karakter başına sistem istemleri ekler. r/LocalLLaMA topluluğu, yerel rol yapma modellerine Android’de nereden başlanacağı sorulduğunda tutarlı şekilde ChatterUI önerir.
Zayıf yönleri: Aptoide’da değil. Arayüz PocketPal’dan daha yoğundur ve örnekleyici ayarları, tekrar cezasını ve bağlam uzunluğunu anladığınızı varsayar. Yeni kullanıcılar ilk açılışta genelde vazgeçer.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, AGPL-3.0 lisanslı
- Ücretli: yok
Platformlar: yalnızca Android
Özet: SillyTavern karakter kartları iş akışınızın parçasıysa ChatterUI’yi seçin. “Örnekleyici ayarları” yabancı geliyorsa atlayın.
6. Layla — karakter kartları için en iyi ücretli uygulama
Layla, bu kategoride cilalı ticari seçenektir; karakter sohbeti etrafında Wear OS arkadaşı, masaüstü istemcisi ve tam çevrimdışı mod için kapatabileceğiniz isteğe bağlı bulut senkronizasyonu ile kurulmuştur. Aptoide’daki 6.5.1 sürümü rol yapma için ayarlanmış seçilmiş topluluk modelleri içerir; geliştirici sık güncelleme yayınlar ve son iki ayda Qwen 2.5 ile Llama 3.3 desteği eklendi. Yerel LLM iş yükleri için Layla, para alan ve bunu hak eden az uygulamadan biridir çünkü modeller gerçekten akıcı çalışır.
Zayıf yönleri: Ücretsiz uygulamaların hüküm sürdüğü bir kategoride abonelik fiyatı satması zordur. Bazı kullanıcılar model senkronizasyonu gibi isteğe bağlı bulut özelliklerine dikkat çekti; ilk açılışta çevrimdışı mod anahtarını kontrol etmeye değer.
Fiyatlandırma:
- Ücretsiz: 7 günlük deneme
- Ücretli: $5.99/ay veya $39.99/yıl
Platformlar: Android, iOS, Windows, macOS, Linux
Özet: Ana kullanımınız karakter sohbeti ve gerçekten bakımı yapılan ücretli bir uygulama istiyorsanız Layla’yı seçin. Bir sohbet arayüzü için ilke olarak ödeme yapmayacaksanız atlayın.
7. Termux + Ollama — Linux güç kullanıcıları için en iyisi
İçine Ollama kurulmuş Termux, Android’deki en esnek yerel yapay zekâ kurulumudur ve birçok geliştirici OpenAI uyumlu API uç noktaları, Hugging Face GGUF’nin ötesinde model kütüphaneleri ve her şeyi betikleme yeteneği istediğinde bu yolu seçer. Aptoide’daki Termux sürümü, Aptoide için paketlenmiş resmi 2026.02.11 Google Play sürümüdür; 10M+ kurulum. Kurulumdan sonra pkg install ollama ve ardından ollama serve, herhangi bir sohbet istemcisinin (aynı telefondaki Open WebUI dahil) bağlanabileceği 11434 numaralı bağlantı noktasında yerel bir API verir.
Zayıf yönleri: Kurulum gerçek bir Linux yolculuğudur. Varsayılan olarak yalnızca CPU çıkarımı vardır; bu yüzden jetonlar MLC Chat’e göre daha yavaş gelir. Uzun oturumlarda pil tüketimi özel uygulamalardan daha yüksektir.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, GPL-3.0 lisanslı
- Ücretli: yok
Platformlar: yalnızca Android (Termux); Ollama betikleri Linux’un çalıştığı her yerde çalışır
Özet: Terminali rahat kullanıyorsanız ve tam kontrol istiyorsanız Termux + Ollama’yı seçin. Akşamınızı “yapılandırma dosyası düzenlemek” ile geçirmek istemiyorsanız atlayın.
8. SmolChat — eski donanımda en hafif
SmolChat, Hugging Face’ten SmolLM ailesi etrafında kurulu yerel Android sohbet uygulamasıdır; 135M ile 3 milyar parametre arası modeller yalnızca 3 GB RAM’li telefonlarda bile düzgün çalışır. Uygulama GitHub’da açık kaynaklıdır, özel GGUF içe aktarımını destekler ve bu listedeki tek giriştir ki 2022 orta segment bir Android’de rahat çalışır. Donanım gerçek bir kısıt olduğunda yerel LLM kullanımı için SmolChat yanıttır.
Zayıf yönleri: Aptoide veya Google Play’de değil, yalnızca GitHub’da. Küçük modeller 7B ve 8B alternatiflerinden daha fazla halüsinasyon üretir; bu yüzden gerçek doğruluk belirgin şekilde düşer. Arayüz cilalıdan çok işlevseldir.
Fiyatlandırma:
- Ücretsiz: tüm özellikler, Apache-2.0 lisanslı
- Ücretli: yok
Platformlar: yalnızca Android
Özet: Telefonunuz eskiyse veya RAM kısıtlıysa SmolChat’i seçin. 8 veya 12 GB’lık ve daha büyük bir şey çalıştırabilecek bir cihazınız varsa atlayın.
Doğru olanı nasıl seçersiniz
Çoğu okuyucu listedeki birinci veya ikinci seçenekle mutlu olur, ancak doğru yanıt gerçekten ne istediğinize bağlıdır.
- En basit seçeneği istiyorsanız: PocketPal AI.
- Pixel 8 veya 9’unuz varsa ve birinci parti Google modellerini istiyorsanız: Google AI Edge Gallery.
- Ham saniye başına jeton önemliyse: MLC Chat.
- Linux dünyasında yaşıyorsanız ve gerçek bir API istiyorsanız: Termux + Ollama.
- Gerçek bir sohbet arayüzü olan bir FOSS uygulaması istiyorsanız: Maid.
- Karakter yazıyor ve SillyTavern kartları kullanıyorsanız: ChatterUI.
- Kararlı, cilalı karakter sohbeti için ödeme yaparsanız: Layla.
- Telefonunuzda 4 GB RAM veya daha az varsa: SmolChat.
PocketPal’ı çok basit bulup bıraktıysanız ChatterUI veya MLC Chat’e geçin. Termux’u deneyip pes ettiyseniz doğrudan PocketPal’a dönün ve terminalin varlığını unutun.
SSS
Bir telefon çevrimdışı gerçekten kullanışlı bir LLM çalıştırabilir mi?
Evet; en az 6 GB RAM ve Snapdragon 8 serisi, güncel Tensor veya Apple A16 nesli ve üzeri bir çip varsa. 4 bit kuantize 7B model rahatça sığar ve sohbet hızında yanıt verir. 3-4 GB RAM’li eski telefonlar SmolLM 2 veya Phi-3 Mini gibi 1B-3B modellerde kalmalıdır.
Android için en iyi ücretsiz yerel yapay zekâ uygulaması hangisi?
2026’da PocketPal AI en dengeli seçenektir. Açık kaynaklıdır, yerleşik Hugging Face model tarayıcısı vardır, makul varsayılanlar sunar ve yapılandırma olmadan modern herhangi bir telefonda çalışır. Google AI Edge Gallery Pixel donanımında yakın ikincidir.
Yerel yapay zekâ uygulamaları gerçekten gizli mi?
Yerel olarak çalışan bir model istemleri sunucuya göndermez — mesele budur. Uygulamanın kendisi analitik veya çökme raporları için yine de eve arama yapabilir; ilk açılışta ayarları kontrol edin ve istemediklerinizi kapatın. PocketPal, Maid, MLC Chat, ChatterUI ve SmolChat’in hepsi açık kaynaklı ve denetlenebilir.
ChatGPT veya Gemini yerine yerel LLM neden kullanılsın?
İnsanların sık verdiği üç neden: gizlilik (istemler cihazda kalır), çevrimdışı kullanım (uçuşlar, trenler, sinyal yok) ve sıfır maliyet (aylık 20 $ abonelik yok). Karşılığı daha küçük modeller, zayıf akıl yürütme ve daha eski eğitim kesim tarihleridir.
Önce hangi model indirilmeli?
6 GB RAM varsa Llama 3.2 3B Instruct veya Phi-3.5 Mini ile başlayın. 8 GB veya daha fazlaysa Llama 3.3 8B veya Qwen 2.5 7B’ye geçin. PocketPal’ın yerleşik tarayıcısı her modeli bellek gereksinimleriyle etiketler; güvenle seçebilirsiniz.
Bu uygulamalar iPhone’da çalışır mı?
PocketPal AI, MLC Chat ve Layla’nın iOS sürümleri vardır. ChatterUI, Maid, SmolChat, Termux ve Google AI Edge Gallery Mayıs 2026 itibarıyla yalnızca Android’dir.
