PocketPal AI, cihaz üzerinde LLM uygulaması

7 milyar parametreli dil modeli artık 4 GB RAM’e sığar, Snapdragon 8 Gen 3 üzerinde saniyede 8 ila 12 jeton üretir ve ağı hiç kullanmadan yanıt verir. 2026’da Android’de yerel yapay zekâ böyle görünür — ve son 12 ayda hesap, abonelik ve telemetri olmadan telefona sohbet botu koyan bir uygulama dalgasının nedeni budur.

2026’da Android’de yerel yapay zekâ çalıştırmak için sekiz en iyi uygulamayı test ettik. Her biri model seçimi, orta segment bir cihazda saniye başına jeton, RAM kullanımı, GGUF veya MLC desteği, çevrimdışı güvenilirlik ve ilk soruyu sorabilmeniz için gereken kurulum miktarına göre değerlendirildi. Ücretsiz, açık kaynaklı ve ücretli seçeneklerin hepsi dahil.

Yerel yapay zekâ uygulamasında nelere bakmalı

Yerel LLM uygulamaları aynı değildir. Yarım düzine yüklemeden önce, kullanılabilir bir aracı teknik bir demodan ayıran şeyi bilmek işe yarar.

Hızlı karşılaştırma

UygulamaEn iyi olduğu alanPlatformlarÜcretsiz planBaşlangıç fiyatıAptoide indirmeleri
PocketPal AIGenel olarak en iyi, kolay GGUFAndroid, iOSEvetÜcretsiz1M+
Google AI Edge GalleryResmi Google modelleriAndroidEvetÜcretsiz100K+
MLC ChatMLC derlenmiş modellerle hızAndroid, iOS, masaüstüEvetÜcretsizn/a (GitHub)
MaidFOSS llama.cpp sarmalayıcısıAndroid, masaüstüEvetÜcretsiz10K+
ChatterUIKarakter sohbeti, rol yapmaAndroidEvetÜcretsizn/a (GitHub)
LaylaÜcretli karakter sohbetiAndroid, iOS, masaüstü7 günlük deneme$5.99/ay5K
Termux + OllamaTam Linux araç zinciriAndroidEvetÜcretsiz10M+
SmolChatHafif 1B–3B modellerAndroidEvetÜcretsizn/a (GitHub)

2026’da Android’de yerel yapay zekâ için 8 en iyi uygulama

1. PocketPal AI — yerel LLM’ye ilk kez başlayanlar için en iyisi

PocketPal AI

PocketPal AI, cihaz üzerindeki LLM’leri sonunda sıradan bir Android uygulaması gibi hissettiren uygulamadır. Aptoide sürümü 1.14.0 ve bir milyondan fazla kuruluma sahip; uygulama içi model tarayıcısı GGUF dosyalarını doğrudan Hugging Face’ten çeker, dosya yöneticisine gerek kalmaz. Kutudan çıktığında makul kuantizasyon varsayılanları, özel sistem istemleri olan çalışan bir sohbet arayüzü ve cihaz başına saniye başına jeton gösteren kıyaslama bulunur. Yerel LLM kullanımı için PocketPal AI, Android’de en düzgün giriş rampasıdır.

Zayıf yönleri: Yerel ses girişi yok. 8K jetondan uzun bağlam modelleri, 8 GB’dan az RAM’li telefonlarda keskin şekilde yavaşlar. Diğer uygulamaları bağlamak için API sunucu modu henüz yok.

Fiyatlandırma:

Platformlar: Android, iOS

İndir: AptoideGoogle PlayApp Store

Özet: Telefonda LLM çalıştırmayı ilk denemeniz ise PocketPal AI’yi seçin. Android kullanan herkese önce bunu denemeyi öneririz.

Google AI Edge Gallery

Google AI Edge Gallery, Gemma ve diğer cihaz üzeri modeller için Google’ın araştırma vitrinidir ve büyük bir satıcıdan gelen en cilalı ücretsiz seçenektir. Aptoide sürümü 30,7 MB’tır; paket Research at Google olarak imzalanır ve desteklenen telefonlarda donanım hızlandırmasıyla birlikte sohbet, özetleme, görüntü sınıflandırması ve isteme dayalı görüntü oluşturma için çalışmaya hazır demolar içerir. Pixel 8 Pro ve Pixel 9, AICore çerçevesi üzerinden cihaz içi NPU’yu açar; bu da saniye başına jetonda belirgin şekilde daha hızlı sonuç verir.

Zayıf yönleri: Model kataloğu Google tarafından seçilir; keyfi GGUF dosyaları ekleyemezsiniz. Bazı demo özellikleri Pixel bekler ve diğer cihazlarda sessizce daha yavaş CPU moduna düşer.

Fiyatlandırma:

Platformlar: yalnızca Android

İndir: Aptoide

Özet: Pixel 8 veya 9’unuz varsa ve resmi Gemma deneyimi istiyorsanız Google AI Edge Gallery’yi seçin. Özel topluluk modelleri yüklemek istiyorsanız atlayın.

3. MLC Chat — ham hız için en iyisi

MLC Chat, MLC LLM projesinin referans Android uygulamasıdır; bu açık kaynak derleyici yığını Llama, Mistral ve Qwen ağırlıklarını alıp TVM aracılığıyla GPU hızlandırmalı çekirdeklere derler. Sonuç, aynı Snapdragon donanımında herhangi bir GGUF tabanlı uygulamaya karşı tutarlı olarak en yüksek saniye başına jeton sayılarıdır — genellikle 2 ila 3 kat önde — ve proje 2025-2026 boyunca Qwen 2.5 ve Llama 3.3 yapıları için düzenli güncellendi. Yerel LLM iş yükleri için MLC Chat, iş hacmi gerçekten önemliyse seçimdir.

Zayıf yönleri: Aptoide veya Google Play’de değil. GitHub sürümler sayfasından yüklersiniz; bazı kullanıcıların atlamayacağı bir yan yükleme adımıdır. Model seçimi önceden derlenmiş MLC kataloğuyla sınırlıdır; yeni model eklemek ağırlıkları kendinizin yeniden derlemesi anlamına gelir.

Fiyatlandırma:

Platformlar: Android, iOS, Windows, macOS, Linux

İndir: GitHub

Özet: Kıyaslama sayıları sizin için önemliyse MLC Chat’i seçin. GitHub’dan APK yüklemekten rahatsızsanız atlayın.

4. Maid — en iyi FOSS llama.cpp sarmalayıcısı

Maid, llama.cpp için bir Flutter ön uçtur; Aptoide’da Android sürümü ve çoğu platformda masaüstü sürümü sunar. 2.1.51 sürümü karakter kartları, bağlam uzunluğu ve sıcaklık için ayarlar paneli ve topluluk tarafından önerilen modeller için doğrudan indirme düğmeleri ekler. Yerel LLM kullanımı için Maid, bu listedeki en karakterli FOSS uygulamasıdır; araştırma demosu yerine sohbet uygulaması hissi verir.

Zayıf yönleri: Android’de GPU hızlandırması yok; bu yüzden saniye başına jeton MLC Chat’e göre çok geride kalır. İlk model indirmeleri yavaştır çünkü seçilmiş liste ücretsiz katmanlarda kısıtlanan Hugging Face aynalarından çeker.

Fiyatlandırma:

Platformlar: Android, Windows, macOS, Linux

İndir: AptoideGitHub

Özet: FOSS saflığı önemliyse ve aynı modellerle konuşan bir masaüstü istemcisi de istiyorsanız Maid’i seçin. Yalnızca telefon hızı önemliyse atlayın.

5. ChatterUI — karakter sohbeti ve rol yapma için en iyisi

ChatterUI, açık kaynaklı karakter sohbeti ön ucu SillyTavern’ın Android karşılığıdır. Cihaz üzerinde llama.cpp çalıştırır, standart SillyTavern JSON biçiminde karakter kartlarını destekler ve web arama kancaları, yerel dosyalar üzerinde RAG ve karakter başına sistem istemleri ekler. r/LocalLLaMA topluluğu, yerel rol yapma modellerine Android’de nereden başlanacağı sorulduğunda tutarlı şekilde ChatterUI önerir.

Zayıf yönleri: Aptoide’da değil. Arayüz PocketPal’dan daha yoğundur ve örnekleyici ayarları, tekrar cezasını ve bağlam uzunluğunu anladığınızı varsayar. Yeni kullanıcılar ilk açılışta genelde vazgeçer.

Fiyatlandırma:

Platformlar: yalnızca Android

İndir: GitHub

Özet: SillyTavern karakter kartları iş akışınızın parçasıysa ChatterUI’yi seçin. “Örnekleyici ayarları” yabancı geliyorsa atlayın.

6. Layla — karakter kartları için en iyi ücretli uygulama

Layla, bu kategoride cilalı ticari seçenektir; karakter sohbeti etrafında Wear OS arkadaşı, masaüstü istemcisi ve tam çevrimdışı mod için kapatabileceğiniz isteğe bağlı bulut senkronizasyonu ile kurulmuştur. Aptoide’daki 6.5.1 sürümü rol yapma için ayarlanmış seçilmiş topluluk modelleri içerir; geliştirici sık güncelleme yayınlar ve son iki ayda Qwen 2.5 ile Llama 3.3 desteği eklendi. Yerel LLM iş yükleri için Layla, para alan ve bunu hak eden az uygulamadan biridir çünkü modeller gerçekten akıcı çalışır.

Zayıf yönleri: Ücretsiz uygulamaların hüküm sürdüğü bir kategoride abonelik fiyatı satması zordur. Bazı kullanıcılar model senkronizasyonu gibi isteğe bağlı bulut özelliklerine dikkat çekti; ilk açılışta çevrimdışı mod anahtarını kontrol etmeye değer.

Fiyatlandırma:

Platformlar: Android, iOS, Windows, macOS, Linux

İndir: Aptoide

Özet: Ana kullanımınız karakter sohbeti ve gerçekten bakımı yapılan ücretli bir uygulama istiyorsanız Layla’yı seçin. Bir sohbet arayüzü için ilke olarak ödeme yapmayacaksanız atlayın.

7. Termux + Ollama — Linux güç kullanıcıları için en iyisi

Android için Termux Linux terminali

İçine Ollama kurulmuş Termux, Android’deki en esnek yerel yapay zekâ kurulumudur ve birçok geliştirici OpenAI uyumlu API uç noktaları, Hugging Face GGUF’nin ötesinde model kütüphaneleri ve her şeyi betikleme yeteneği istediğinde bu yolu seçer. Aptoide’daki Termux sürümü, Aptoide için paketlenmiş resmi 2026.02.11 Google Play sürümüdür; 10M+ kurulum. Kurulumdan sonra pkg install ollama ve ardından ollama serve, herhangi bir sohbet istemcisinin (aynı telefondaki Open WebUI dahil) bağlanabileceği 11434 numaralı bağlantı noktasında yerel bir API verir.

Zayıf yönleri: Kurulum gerçek bir Linux yolculuğudur. Varsayılan olarak yalnızca CPU çıkarımı vardır; bu yüzden jetonlar MLC Chat’e göre daha yavaş gelir. Uzun oturumlarda pil tüketimi özel uygulamalardan daha yüksektir.

Fiyatlandırma:

Platformlar: yalnızca Android (Termux); Ollama betikleri Linux’un çalıştığı her yerde çalışır

İndir: AptoideF-Droid

Özet: Terminali rahat kullanıyorsanız ve tam kontrol istiyorsanız Termux + Ollama’yı seçin. Akşamınızı “yapılandırma dosyası düzenlemek” ile geçirmek istemiyorsanız atlayın.

8. SmolChat — eski donanımda en hafif

SmolChat, Hugging Face’ten SmolLM ailesi etrafında kurulu yerel Android sohbet uygulamasıdır; 135M ile 3 milyar parametre arası modeller yalnızca 3 GB RAM’li telefonlarda bile düzgün çalışır. Uygulama GitHub’da açık kaynaklıdır, özel GGUF içe aktarımını destekler ve bu listedeki tek giriştir ki 2022 orta segment bir Android’de rahat çalışır. Donanım gerçek bir kısıt olduğunda yerel LLM kullanımı için SmolChat yanıttır.

Zayıf yönleri: Aptoide veya Google Play’de değil, yalnızca GitHub’da. Küçük modeller 7B ve 8B alternatiflerinden daha fazla halüsinasyon üretir; bu yüzden gerçek doğruluk belirgin şekilde düşer. Arayüz cilalıdan çok işlevseldir.

Fiyatlandırma:

Platformlar: yalnızca Android

İndir: GitHub

Özet: Telefonunuz eskiyse veya RAM kısıtlıysa SmolChat’i seçin. 8 veya 12 GB’lık ve daha büyük bir şey çalıştırabilecek bir cihazınız varsa atlayın.

Doğru olanı nasıl seçersiniz

Çoğu okuyucu listedeki birinci veya ikinci seçenekle mutlu olur, ancak doğru yanıt gerçekten ne istediğinize bağlıdır.

PocketPal’ı çok basit bulup bıraktıysanız ChatterUI veya MLC Chat’e geçin. Termux’u deneyip pes ettiyseniz doğrudan PocketPal’a dönün ve terminalin varlığını unutun.

SSS

Bir telefon çevrimdışı gerçekten kullanışlı bir LLM çalıştırabilir mi?

Evet; en az 6 GB RAM ve Snapdragon 8 serisi, güncel Tensor veya Apple A16 nesli ve üzeri bir çip varsa. 4 bit kuantize 7B model rahatça sığar ve sohbet hızında yanıt verir. 3-4 GB RAM’li eski telefonlar SmolLM 2 veya Phi-3 Mini gibi 1B-3B modellerde kalmalıdır.

Android için en iyi ücretsiz yerel yapay zekâ uygulaması hangisi?

2026’da PocketPal AI en dengeli seçenektir. Açık kaynaklıdır, yerleşik Hugging Face model tarayıcısı vardır, makul varsayılanlar sunar ve yapılandırma olmadan modern herhangi bir telefonda çalışır. Google AI Edge Gallery Pixel donanımında yakın ikincidir.

Yerel yapay zekâ uygulamaları gerçekten gizli mi?

Yerel olarak çalışan bir model istemleri sunucuya göndermez — mesele budur. Uygulamanın kendisi analitik veya çökme raporları için yine de eve arama yapabilir; ilk açılışta ayarları kontrol edin ve istemediklerinizi kapatın. PocketPal, Maid, MLC Chat, ChatterUI ve SmolChat’in hepsi açık kaynaklı ve denetlenebilir.

ChatGPT veya Gemini yerine yerel LLM neden kullanılsın?

İnsanların sık verdiği üç neden: gizlilik (istemler cihazda kalır), çevrimdışı kullanım (uçuşlar, trenler, sinyal yok) ve sıfır maliyet (aylık 20 $ abonelik yok). Karşılığı daha küçük modeller, zayıf akıl yürütme ve daha eski eğitim kesim tarihleridir.

Önce hangi model indirilmeli?

6 GB RAM varsa Llama 3.2 3B Instruct veya Phi-3.5 Mini ile başlayın. 8 GB veya daha fazlaysa Llama 3.3 8B veya Qwen 2.5 7B’ye geçin. PocketPal’ın yerleşik tarayıcısı her modeli bellek gereksinimleriyle etiketler; güvenle seçebilirsiniz.

Bu uygulamalar iPhone’da çalışır mı?

PocketPal AI, MLC Chat ve Layla’nın iOS sürümleri vardır. ChatterUI, Maid, SmolChat, Termux ve Google AI Edge Gallery Mayıs 2026 itibarıyla yalnızca Android’dir.