Führen Sie alle Ihre bevorzugten KI-Modelle in einem eleganten, organisierten Chat-Arbeitsbereich aus. Jetzt mit lokalen Modellen (offline), iCloud-Synchronisation, biometrischen Sperren, Chat-Verzweigungen, JSON-Import/Export und universellen Apps für iPhone, iPad und Mac.
Verbinden Sie Ihre eigenen API-Schlüssel für OpenAI, Anthropic, OpenRouter, Groq, Grok, Perplexity, DeepSeek, Gemini, Mistral, Replicate oder benutzerdefinierte Endpunkte. Wechseln Sie Modelle jederzeit.
Kostenloser Plan verfügbar. Einige Funktionen erfordern ein Abonnement. Anbietergebühren können anfallen.
▸ Alle Modelle, die Sie brauchen
Hinterlegen Sie Schlüssel für mehrere Anbieter und vergleichen Sie Qualität, Geschwindigkeit und Kosten an einem Ort. Nutzen Sie lokale Modelle auf Ihrem Gerät, wenn Sie offline sind.
▸ Ein einheitlicher Chat
Ordner, Pins, leistungsstarke Suche und Wischgesten halten Dutzende Gespräche organisiert. Erstellen Sie Verzweigungs-Chats, um Ideen zu erkunden, ohne den ursprünglichen Faden zu verlieren. Sperren Sie die App, bestimmte Chats oder Ordner mit Face ID oder Touch ID. Mit iCloud-Sync bleiben Chats und Ordner zwischen iPhone, iPad und Mac synchron. Exportieren und importieren Sie Konversationen im JSON-Format.
▸ Besser schreiben, übersetzen und zusammenfassen
Verfassen Sie professionelle E-Mails, formulieren und korrigieren Sie Texte neu, ändern Sie den Ton, übersetzen Sie Inhalte und erstellen Sie prägnante Zusammenfassungen von langen Texten und PDFs.
▸ Integrierter Bildgenerator
Erstellen Sie Bilder und Variationen direkt im Chat, ohne die App zu wechseln.
▸ Prompt-Galerie + Speicher
Speichern Sie wiederverwendbare “/prompts” und geben Sie Assistenten fortlaufenden Kontext, damit sie sich merken, was in jedem Thread wichtig ist.
▸ Datenschutz zuerst und Kostenkontrolle
Ihre API-Schlüssel werden auf dem Gerät gespeichert. Anfragen gehen direkt von Ihrem Gerät zu den Anbietern, die Sie auswählen. Sie entscheiden, welche Modelle Sie verwenden und wie viel Sie ausgeben möchten. Lokale Modelle laufen direkt auf dem Gerät – auch offline.
▸ Für Geschwindigkeit entwickelt
Neue Streaming- und Markdown-Prozessoren, Liquid-Glass-Ästhetik, neues Schwarz-Weiß-Thema, überarbeitete Chatblasen, neuer Eingabeindikator, UI-Verbesserungen sowie schnellere Leistung mit verbesserter Stabilität.
▸ Hintergrundaufgaben
Schließen Sie die App, während ein Modell antwortet, und erhalten Sie eine Benachrichtigung, wenn es fertig ist.
So funktioniert’s:
1. Fügen Sie Ihre API-Schlüssel hinzu oder wählen Sie ein lokales Modell.
2. Wählen Sie einen Anbieter und ein Modell und starten Sie sofort das Chatten.
3. Organisieren Sie Gespräche mit Ordnern oder Pins und nutzen Sie wiederverwendbare Prompts, um schneller zu arbeiten.
4. Synchronisieren Sie mit anderen Geräten.
Perfekt für:
• Entwickler, die mehrere LLMs benchmarken
• Content-Creator, die Schreib- und Designaufgaben automatisieren
• Studenten und Forscher, die viel Material zusammenfassen und übersetzen
• Alle, die Wert auf Kostentransparenz und Datenhoheit legen
Rechtlicher Hinweis
LLMConnect ist eine unabhängige Anwendung und steht in keiner Verbindung zu, wird nicht unterstützt oder gesponsert von OpenAI, Anthropic, OpenRouter, Groq, Grok (xAI), Perplexity, DeepSeek, Google (Gemini), Mistral, Replicate oder einem anderen Drittanbieter. Alle Produktnamen, Logos und Marken sind Eigentum ihrer jeweiligen Inhaber. Die Verwendung dieser Namen dient ausschließlich der Beschreibung der Kompatibilität.
Nutzungsbedingungen: https://www.apple.com/legal/internet-services/itunes/dev/stdeula/
Beschreibung anzeigen Beschreibung verbergen