diff --git a/packages/web/src/content/docs/ar/providers.mdx b/packages/web/src/content/docs/ar/providers.mdx index 951d6701cb81..84634f842068 100644 --- a/packages/web/src/content/docs/ar/providers.mdx +++ b/packages/web/src/content/docs/ar/providers.mdx @@ -319,6 +319,64 @@ OpenCode Go هي خطة اشتراك منخفضة التكلفة توفّر وص --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) هو تطبيق سطح مكتب لتشغيل نماذج LLM محلياً. يكشف عن خادم API متوافق مع OpenAI على المنفذ الثابت `1337`. + +:::tip +المنفذ `1337` هو العقد العام لـ Atomic Chat. لا يتغير بين الإصدارات، لذلك يظل هذا التكوين مستقراً لكل مستخدم. +::: + +1. شغّل تطبيق Atomic Chat وحمّل نموذجاً واحداً على الأقل (على سبيل المثال، _Qwen3.5 9B_، أو _Gemma 4 E4B_، أو _MiniMax M2.5_). + +2. تحقق من أن الخادم المحلي يستجيب: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. قم بتكوين OpenCode لاستخدام Atomic Chat عبر ملف التكوين الخاص بك: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. شغّل الأمر `/models` لاختيار النموذج المحمّل. + + ```txt + /models + ``` + +في هذا المثال: + +- `atomic-chat` هو معرّف المزوّد. يمكن أن يكون أي سلسلة تريدها. +- `npm` هو حزمة AI SDK. يُستخدم `@ai-sdk/openai-compatible` لأن Atomic Chat يكشف عن واجهة برمجة تطبيقات متوافقة مع OpenAI. +- `name` هو الاسم المعروض في واجهة المستخدم. +- `options.baseURL` هو نقطة نهاية الخادم المحلي. +- `models` هو خريطة لمعرّفات النماذج. يجب أن يتطابق كل معرّف مع `id` الذي تُرجعه `GET /v1/models` (يقوم Atomic Chat بتطبيع الأسماء — تتم إزالة بادئة المؤلف واستبدال النقاط بالشرطات السفلية). + +:::note +بمجرد دمج إدخال Atomic Chat في [Models.dev](https://models.dev)، سيظهر المزوّد وجميع النماذج المباركة تلقائياً في `/connect` و `/models` — دون الحاجة إلى تكوين. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/bs/providers.mdx b/packages/web/src/content/docs/bs/providers.mdx index 1aae0a93a9dc..7877a0b76b15 100644 --- a/packages/web/src/content/docs/bs/providers.mdx +++ b/packages/web/src/content/docs/bs/providers.mdx @@ -324,6 +324,64 @@ Ili ako već imate API ključ, možete odabrati **Ručno unesite API ključ** i --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) je desktop aplikacija za pokretanje lokalnih LLM-ova. Izlaže OpenAI-kompatibilan API server na fiksnom portu `1337`. + +:::tip +Port `1337` je javni ugovor Atomic Chata. Ne mijenja se između verzija, pa je ova konfiguracija stabilna za sve korisnike. +::: + +1. Pokrenite Atomic Chat aplikaciju i učitajte najmanje jedan model (na primjer, _Qwen3.5 9B_, _Gemma 4 E4B_ ili _MiniMax M2.5_). + +2. Provjerite da li lokalni server odgovara: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Konfigurišite OpenCode da koristi Atomic Chat putem vaše konfiguracijske datoteke: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Pokrenite naredbu `/models` za odabir učitanog modela. + + ```txt + /models + ``` + +U ovom primjeru: + +- `atomic-chat` je identifikator dobavljača. Može biti bilo koji string koji želite. +- `npm` je AI SDK paket. Koristi se `@ai-sdk/openai-compatible` jer Atomic Chat izlaže OpenAI-kompatibilan API. +- `name` je ime prikazano u korisničkom sučelju. +- `options.baseURL` je krajnja tačka lokalnog servera. +- `models` je mapa ID-jeva modela. Svaki ID mora odgovarati `id` koji vraća `GET /v1/models` (Atomic Chat normalizira imena — prefiks autora se uklanja, a tačke se zamjenjuju donjim crticama). + +:::note +Kada se unos Atomic Chata spoji u [Models.dev](https://models.dev), dobavljač i svi blagoslovljeni modeli automatski će se pojaviti u `/connect` i `/models` — bez potrebe za konfiguracijom. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/da/providers.mdx b/packages/web/src/content/docs/da/providers.mdx index bcd82c84542a..c570cb1b85e5 100644 --- a/packages/web/src/content/docs/da/providers.mdx +++ b/packages/web/src/content/docs/da/providers.mdx @@ -315,6 +315,64 @@ Eller hvis du allerede har en API-nøgle, kan du vælge **Manually enter API Key --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) er et skrivebordsprogram til at køre lokale LLM'er. Det eksponerer en OpenAI-kompatibel API-server på den faste port `1337`. + +:::tip +Port `1337` er Atomic Chats offentlige kontrakt. Den ændrer sig ikke mellem versioner, så denne konfiguration er stabil for alle brugere. +::: + +1. Start Atomic Chat-appen og indlæs mindst én model (for eksempel _Qwen3.5 9B_, _Gemma 4 E4B_ eller _MiniMax M2.5_). + +2. Bekræft, at den lokale server svarer: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Konfigurer OpenCode til at bruge Atomic Chat via din konfigurationsfil: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Kør kommandoen `/models` for at vælge den indlæste model. + + ```txt + /models + ``` + +I dette eksempel: + +- `atomic-chat` er udbyder-id'et. Det kan være en hvilken som helst streng, du ønsker. +- `npm` er AI SDK-pakken. `@ai-sdk/openai-compatible` bruges, fordi Atomic Chat eksponerer et OpenAI-kompatibelt API. +- `name` er det navn, der vises i UI'en. +- `options.baseURL` er den lokale servers endpoint. +- `models` er et kort over model-id'er. Hvert id skal matche det `id`, som `GET /v1/models` returnerer (Atomic Chat normaliserer navne — forfatter-præfikset fjernes, og punktummer erstattes med understregninger). + +:::note +Når Atomic Chat-posten er flettet ind i [Models.dev](https://models.dev), vises udbyderen og alle velsignede modeller automatisk i `/connect` og `/models` — uden konfiguration. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/de/providers.mdx b/packages/web/src/content/docs/de/providers.mdx index c012a78fc2ba..f7ce40817fdd 100644 --- a/packages/web/src/content/docs/de/providers.mdx +++ b/packages/web/src/content/docs/de/providers.mdx @@ -321,6 +321,64 @@ Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüs --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) ist eine Desktop-Anwendung zum Ausführen lokaler LLMs. Sie stellt einen OpenAI-kompatiblen API-Server am festen Port `1337` bereit. + +:::tip +Port `1337` ist der öffentliche Vertrag von Atomic Chat. Er ändert sich zwischen Versionen nicht, sodass die Konfiguration für jeden Nutzer stabil ist. +::: + +1. Starten Sie die Atomic-Chat-Anwendung und laden Sie mindestens ein Modell (zum Beispiel _Qwen3.5 9B_, _Gemma 4 E4B_ oder _MiniMax M2.5_). + +2. Prüfen Sie, dass der lokale Server antwortet: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Konfigurieren Sie OpenCode, um Atomic Chat über Ihre Konfigurationsdatei zu verwenden: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Führen Sie den Befehl `/models` aus, um das geladene Modell auszuwählen. + + ```txt + /models + ``` + +In diesem Beispiel: + +- `atomic-chat` ist die Provider-Kennung. Sie kann eine beliebige Zeichenkette sein. +- `npm` ist das AI-SDK-Paket. `@ai-sdk/openai-compatible` wird verwendet, weil Atomic Chat eine OpenAI-kompatible API bereitstellt. +- `name` ist der in der UI angezeigte Name. +- `options.baseURL` ist der Endpunkt des lokalen Servers. +- `models` ist eine Zuordnung von Modell-IDs. Jede ID muss dem `id`-Wert entsprechen, den `GET /v1/models` zurückgibt (Atomic Chat normalisiert Namen — das Autoren-Präfix wird entfernt und Punkte werden durch Unterstriche ersetzt). + +:::note +Sobald der Atomic-Chat-Eintrag in [Models.dev](https://models.dev) gemergt wird, erscheinen der Provider und alle gesegneten Modelle automatisch in `/connect` und `/models` — ohne Konfiguration. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/es/providers.mdx b/packages/web/src/content/docs/es/providers.mdx index b812971409fd..675c90287550 100644 --- a/packages/web/src/content/docs/es/providers.mdx +++ b/packages/web/src/content/docs/es/providers.mdx @@ -322,6 +322,64 @@ O si ya tienes una clave API, puedes seleccionar **Ingresar manualmente la clave --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) es una aplicación de escritorio para ejecutar LLMs locales. Expone un servidor API compatible con OpenAI en el puerto fijo `1337`. + +:::tip +El puerto `1337` es el contrato público de Atomic Chat. No cambia entre versiones, por lo que esta configuración es estable para todos los usuarios. +::: + +1. Inicia la aplicación Atomic Chat y carga al menos un modelo (por ejemplo, _Qwen3.5 9B_, _Gemma 4 E4B_ o _MiniMax M2.5_). + +2. Verifica que el servidor local esté respondiendo: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Configura OpenCode para que use Atomic Chat mediante tu archivo de configuración: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Ejecuta el comando `/models` para seleccionar el modelo cargado. + + ```txt + /models + ``` + +En este ejemplo: + +- `atomic-chat` es el identificador del proveedor. Puede ser cualquier cadena que prefieras. +- `npm` es el paquete del AI SDK. Se utiliza `@ai-sdk/openai-compatible` porque Atomic Chat expone una API compatible con OpenAI. +- `name` es el nombre que se muestra en la interfaz. +- `options.baseURL` es el endpoint del servidor local. +- `models` es un mapa de IDs de modelos. Cada ID debe coincidir con el `id` devuelto por `GET /v1/models` (Atomic Chat normaliza los nombres — se elimina el prefijo del autor y los puntos se reemplazan por guiones bajos). + +:::note +Una vez que la entrada de Atomic Chat se fusione en [Models.dev](https://models.dev), el proveedor y todos los modelos bendecidos aparecerán automáticamente en `/connect` y `/models` — sin necesidad de configuración. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/fr/providers.mdx b/packages/web/src/content/docs/fr/providers.mdx index d7b0657971e7..cfd6dd1871ea 100644 --- a/packages/web/src/content/docs/fr/providers.mdx +++ b/packages/web/src/content/docs/fr/providers.mdx @@ -325,6 +325,64 @@ Ou si vous disposez déjà d'une clé API, vous pouvez sélectionner **Entrer ma --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) est une application de bureau permettant d'exécuter des LLM en local. Elle expose un serveur API compatible OpenAI sur le port fixe `1337`. + +:::tip +Le port `1337` est le contrat public d'Atomic Chat. Il ne change pas entre les versions, donc cette configuration est stable pour chaque utilisateur. +::: + +1. Lancez l'application Atomic Chat et chargez au moins un modèle (par exemple _Qwen3.5 9B_, _Gemma 4 E4B_ ou _MiniMax M2.5_). + +2. Vérifiez que le serveur local répond : + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Configurez OpenCode pour utiliser Atomic Chat via votre fichier de configuration : + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Exécutez la commande `/models` pour sélectionner le modèle chargé. + + ```txt + /models + ``` + +Dans cet exemple : + +- `atomic-chat` est l'identifiant du fournisseur. Il peut s'agir de n'importe quelle chaîne de caractères. +- `npm` est le paquet AI SDK. `@ai-sdk/openai-compatible` est utilisé car Atomic Chat expose une API compatible OpenAI. +- `name` est le nom d'affichage dans l'interface. +- `options.baseURL` est le point de terminaison du serveur local. +- `models` est un mappage d'identifiants de modèles. Chaque ID doit correspondre à l'`id` renvoyé par `GET /v1/models` (Atomic Chat normalise les noms — le préfixe de l'auteur est supprimé et les points sont remplacés par des tirets bas). + +:::note +Une fois l'entrée Atomic Chat fusionnée dans [Models.dev](https://models.dev), le fournisseur et tous les modèles bénis apparaîtront automatiquement dans `/connect` et `/models` — sans aucune configuration. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/it/providers.mdx b/packages/web/src/content/docs/it/providers.mdx index 58bb28407f3d..c7a8938506c8 100644 --- a/packages/web/src/content/docs/it/providers.mdx +++ b/packages/web/src/content/docs/it/providers.mdx @@ -299,6 +299,64 @@ Oppure se hai già una chiave API, puoi selezionare **Manually enter API Key** e --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) è un'applicazione desktop per eseguire LLM in locale. Espone un server API compatibile con OpenAI sulla porta fissa `1337`. + +:::tip +La porta `1337` è il contratto pubblico di Atomic Chat. Non cambia tra le versioni, quindi questa configurazione è stabile per ogni utente. +::: + +1. Avvia l'applicazione Atomic Chat e carica almeno un modello (ad esempio _Qwen3.5 9B_, _Gemma 4 E4B_ o _MiniMax M2.5_). + +2. Verifica che il server locale stia rispondendo: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Configura OpenCode per utilizzare Atomic Chat tramite il tuo file di configurazione: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Esegui il comando `/models` per selezionare il modello caricato. + + ```txt + /models + ``` + +In questo esempio: + +- `atomic-chat` è l'identificatore del provider. Può essere una qualsiasi stringa. +- `npm` è il pacchetto AI SDK. Viene utilizzato `@ai-sdk/openai-compatible` poiché Atomic Chat espone un'API compatibile con OpenAI. +- `name` è il nome visualizzato nell'interfaccia utente. +- `options.baseURL` è l'endpoint del server locale. +- `models` è una mappa di ID dei modelli. Ogni ID deve corrispondere all'`id` restituito da `GET /v1/models` (Atomic Chat normalizza i nomi — il prefisso dell'autore viene rimosso e i punti vengono sostituiti con underscore). + +:::note +Una volta che la voce Atomic Chat sarà integrata in [Models.dev](https://models.dev), il provider e tutti i modelli benedetti appariranno automaticamente in `/connect` e `/models` — senza alcuna configurazione. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/ja/providers.mdx b/packages/web/src/content/docs/ja/providers.mdx index f7e88d8c5dc2..bab6920e363e 100644 --- a/packages/web/src/content/docs/ja/providers.mdx +++ b/packages/web/src/content/docs/ja/providers.mdx @@ -329,6 +329,64 @@ Pro/Max サブスクリプションをお持ちでない場合は、[**API キ --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) は、ローカル LLM を実行するためのデスクトップアプリケーションです。固定ポート `1337` 上で OpenAI 互換の API サーバーを公開します。 + +:::tip +ポート `1337` は Atomic Chat の公開契約です。バージョン間で変更されないため、この設定はすべてのユーザーにとって安定しています。 +::: + +1. Atomic Chat アプリを起動し、少なくとも 1 つのモデル(たとえば _Qwen3.5 9B_、_Gemma 4 E4B_、_MiniMax M2.5_)を読み込みます。 + +2. ローカルサーバーが応答していることを確認します: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. 設定ファイルを使って Atomic Chat を利用するように OpenCode を構成します: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. `/models` コマンドを実行して、読み込んだモデルを選択します。 + + ```txt + /models + ``` + +この例では: + +- `atomic-chat` はプロバイダー識別子です。任意の文字列を指定できます。 +- `npm` は AI SDK パッケージです。Atomic Chat が OpenAI 互換 API を公開しているため `@ai-sdk/openai-compatible` が使用されます。 +- `name` は UI に表示される名前です。 +- `options.baseURL` はローカルサーバーのエンドポイントです。 +- `models` はモデル ID のマップです。各 ID は `GET /v1/models` が返す `id` と一致している必要があります(Atomic Chat は名前を正規化します — 作者のプレフィックスは削除され、ドットはアンダースコアに置き換えられます)。 + +:::note +Atomic Chat のエントリが [Models.dev](https://models.dev) にマージされると、プロバイダーとすべての祝福されたモデルは設定不要で `/connect` および `/models` に自動的に表示されます。 +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/ko/providers.mdx b/packages/web/src/content/docs/ko/providers.mdx index ccbbc48386a0..b38f8bac6b7f 100644 --- a/packages/web/src/content/docs/ko/providers.mdx +++ b/packages/web/src/content/docs/ko/providers.mdx @@ -325,6 +325,64 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니 --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat)는 로컬 LLM을 실행하기 위한 데스크톱 애플리케이션입니다. 고정 포트 `1337`에서 OpenAI 호환 API 서버를 노출합니다. + +:::tip +포트 `1337`은 Atomic Chat의 공개 계약입니다. 버전 간에 변경되지 않으므로 이 설정은 모든 사용자에게 안정적입니다. +::: + +1. Atomic Chat 앱을 실행하고 최소 하나의 모델(예: _Qwen3.5 9B_, _Gemma 4 E4B_ 또는 _MiniMax M2.5_)을 로드합니다. + +2. 로컬 서버가 응답하는지 확인합니다: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. 설정 파일을 통해 Atomic Chat을 사용하도록 OpenCode를 구성합니다: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. `/models` 명령을 실행하여 로드된 모델을 선택합니다. + + ```txt + /models + ``` + +이 예에서: + +- `atomic-chat`은 제공자 식별자입니다. 원하는 임의의 문자열이 될 수 있습니다. +- `npm`은 AI SDK 패키지입니다. Atomic Chat이 OpenAI 호환 API를 노출하므로 `@ai-sdk/openai-compatible`이 사용됩니다. +- `name`은 UI에 표시되는 이름입니다. +- `options.baseURL`은 로컬 서버 엔드포인트입니다. +- `models`는 모델 ID의 맵입니다. 각 ID는 `GET /v1/models`가 반환하는 `id`와 일치해야 합니다 (Atomic Chat은 이름을 정규화합니다 — 작성자 접두사는 제거되고 점은 밑줄로 대체됩니다). + +:::note +Atomic Chat 항목이 [Models.dev](https://models.dev)에 병합되면 제공자와 모든 축복받은 모델이 설정 없이 `/connect` 및 `/models`에 자동으로 나타납니다. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/nb/providers.mdx b/packages/web/src/content/docs/nb/providers.mdx index 9e025a96f890..58a529972816 100644 --- a/packages/web/src/content/docs/nb/providers.mdx +++ b/packages/web/src/content/docs/nb/providers.mdx @@ -323,6 +323,64 @@ Eller hvis du allerede har en API-nøkkel, kan du velge **Angi API-nøkkel manue --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) er en skrivebordsapplikasjon for å kjøre lokale LLM-er. Den eksponerer en OpenAI-kompatibel API-server på den faste porten `1337`. + +:::tip +Port `1337` er Atomic Chats offentlige kontrakt. Den endres ikke mellom versjoner, så denne konfigurasjonen er stabil for alle brukere. +::: + +1. Start Atomic Chat-appen og last inn minst én modell (for eksempel _Qwen3.5 9B_, _Gemma 4 E4B_ eller _MiniMax M2.5_). + +2. Bekreft at den lokale serveren svarer: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Konfigurer OpenCode til å bruke Atomic Chat via konfigurasjonsfilen din: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Kjør kommandoen `/models` for å velge den innlastede modellen. + + ```txt + /models + ``` + +I dette eksempelet: + +- `atomic-chat` er leverandør-ID-en. Det kan være en hvilken som helst streng du vil. +- `npm` er AI SDK-pakken. `@ai-sdk/openai-compatible` brukes fordi Atomic Chat eksponerer et OpenAI-kompatibelt API. +- `name` er navnet som vises i grensesnittet. +- `options.baseURL` er den lokale serverens endepunkt. +- `models` er et kart over modell-ID-er. Hver ID må samsvare med `id`-en som `GET /v1/models` returnerer (Atomic Chat normaliserer navn — forfatterprefikset fjernes, og punktum erstattes med understreker). + +:::note +Når Atomic Chat-oppføringen er flettet inn i [Models.dev](https://models.dev), vises leverandøren og alle velsignede modeller automatisk i `/connect` og `/models` — ingen konfigurasjon nødvendig. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/pl/providers.mdx b/packages/web/src/content/docs/pl/providers.mdx index aeb6272331cc..f86fcc242e4d 100644 --- a/packages/web/src/content/docs/pl/providers.mdx +++ b/packages/web/src/content/docs/pl/providers.mdx @@ -321,6 +321,64 @@ Lub jeśli masz już klucz API, możesz wybrać **Wprowadź klucz API ręcznie** --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) to aplikacja desktopowa do uruchamiania lokalnych LLM-ów. Udostępnia serwer API zgodny z OpenAI na stałym porcie `1337`. + +:::tip +Port `1337` to publiczny kontrakt Atomic Chat. Nie zmienia się między wersjami, więc ta konfiguracja jest stabilna dla każdego użytkownika. +::: + +1. Uruchom aplikację Atomic Chat i załaduj co najmniej jeden model (na przykład _Qwen3.5 9B_, _Gemma 4 E4B_ lub _MiniMax M2.5_). + +2. Sprawdź, czy lokalny serwer odpowiada: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Skonfiguruj OpenCode tak, aby korzystał z Atomic Chat za pomocą pliku konfiguracyjnego: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Uruchom polecenie `/models`, aby wybrać załadowany model. + + ```txt + /models + ``` + +W tym przykładzie: + +- `atomic-chat` to identyfikator dostawcy. Może to być dowolny ciąg znaków. +- `npm` to pakiet AI SDK. `@ai-sdk/openai-compatible` jest używany, ponieważ Atomic Chat udostępnia API zgodne z OpenAI. +- `name` to nazwa wyświetlana w interfejsie. +- `options.baseURL` to punkt końcowy lokalnego serwera. +- `models` to mapa identyfikatorów modeli. Każdy identyfikator musi odpowiadać wartości `id` zwracanej przez `GET /v1/models` (Atomic Chat normalizuje nazwy — przedrostek autora jest usuwany, a kropki są zastępowane podkreśleniami). + +:::note +Po scaleniu wpisu Atomic Chat z [Models.dev](https://models.dev) dostawca i wszystkie błogosławione modele pojawią się automatycznie w `/connect` i `/models` — bez żadnej konfiguracji. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/providers.mdx b/packages/web/src/content/docs/providers.mdx index bd7e10f92894..f3ba6315adf6 100644 --- a/packages/web/src/content/docs/providers.mdx +++ b/packages/web/src/content/docs/providers.mdx @@ -334,6 +334,64 @@ the following subscriptions in OpenCode with zero setup: --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) is a desktop application for running local LLMs. It exposes an OpenAI-compatible API server on the fixed port `1337`. + +:::tip +Port `1337` is Atomic Chat's public contract. It does not change between versions, so this configuration is stable for every user. +::: + +1. Launch the Atomic Chat app and load at least one model (for example, _Qwen3.5 9B_, _Gemma 4 E4B_ or _MiniMax M2.5_). + +2. Verify that the local server is responding: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Configure OpenCode to use Atomic Chat via your config file: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Run the `/models` command to pick the loaded model. + + ```txt + /models + ``` + +In this example: + +- `atomic-chat` is the provider identifier. It can be any string you like. +- `npm` is the AI SDK package. `@ai-sdk/openai-compatible` is used because Atomic Chat exposes an OpenAI-compatible API. +- `name` is the display name shown in the UI. +- `options.baseURL` is the local server endpoint. +- `models` is a map of model IDs. Each ID must match the `id` returned by `GET /v1/models` (Atomic Chat normalizes names — the author prefix is stripped and dots are replaced with underscores). + +:::note +Once the Atomic Chat entry is merged into [Models.dev](https://models.dev), the provider and all blessed models will appear in `/connect` and `/models` automatically — no config needed. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/pt-br/providers.mdx b/packages/web/src/content/docs/pt-br/providers.mdx index 4424a55fc0d5..7fafa0306b37 100644 --- a/packages/web/src/content/docs/pt-br/providers.mdx +++ b/packages/web/src/content/docs/pt-br/providers.mdx @@ -325,6 +325,64 @@ Ou, se você já tiver uma chave da API, pode selecionar **Inserir manualmente a --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) é um aplicativo de desktop para executar LLMs localmente. Ele expõe um servidor de API compatível com OpenAI na porta fixa `1337`. + +:::tip +A porta `1337` é o contrato público do Atomic Chat. Ela não muda entre versões, portanto esta configuração é estável para todos os usuários. +::: + +1. Inicie o aplicativo Atomic Chat e carregue pelo menos um modelo (por exemplo, _Qwen3.5 9B_, _Gemma 4 E4B_ ou _MiniMax M2.5_). + +2. Verifique se o servidor local está respondendo: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Configure o OpenCode para usar o Atomic Chat por meio do seu arquivo de configuração: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Execute o comando `/models` para selecionar o modelo carregado. + + ```txt + /models + ``` + +Neste exemplo: + +- `atomic-chat` é o identificador do provedor. Pode ser qualquer string. +- `npm` é o pacote do AI SDK. `@ai-sdk/openai-compatible` é usado porque o Atomic Chat expõe uma API compatível com OpenAI. +- `name` é o nome exibido na interface. +- `options.baseURL` é o endpoint do servidor local. +- `models` é um mapa de IDs de modelos. Cada ID deve corresponder ao `id` retornado por `GET /v1/models` (o Atomic Chat normaliza os nomes — o prefixo do autor é removido e os pontos são substituídos por sublinhados). + +:::note +Quando a entrada do Atomic Chat for mesclada em [Models.dev](https://models.dev), o provedor e todos os modelos abençoados aparecerão automaticamente em `/connect` e `/models` — sem necessidade de configuração. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/ru/providers.mdx b/packages/web/src/content/docs/ru/providers.mdx index 1cb3873c3296..2f37a9aac126 100644 --- a/packages/web/src/content/docs/ru/providers.mdx +++ b/packages/web/src/content/docs/ru/providers.mdx @@ -321,6 +321,64 @@ OpenCode Go — это недорогой план подписки, обесп --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) — десктопное приложение для запуска локальных LLM, которое поднимает OpenAI-совместимый API-сервер на фиксированном порту `1337`. + +:::tip +Порт `1337` — публичный контракт Atomic Chat. Он не меняется между версиями, поэтому конфигурация стабильна для всех пользователей. +::: + +1. Запустите приложение Atomic Chat и загрузите хотя бы одну модель (например, _Qwen3.5 9B_, _Gemma 4 E4B_ или _MiniMax M2.5_). + +2. Убедитесь, что локальный сервер отвечает: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. Настройте opencode на использование Atomic Chat через конфигурационный файл: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Запустите команду `/models`, чтобы выбрать загруженную модель. + + ```txt + /models + ``` + +В этом примере: + +- `atomic-chat` — идентификатор провайдера. Может быть любой строкой. +- `npm` — пакет AI SDK, здесь используется `@ai-sdk/openai-compatible`, так как Atomic Chat экспонирует OpenAI-совместимый API. +- `name` — отображаемое имя в интерфейсе. +- `options.baseURL` — конечная точка локального сервера. +- `models` — карта идентификаторов моделей. Идентификатор должен совпадать со значением `id`, которое возвращает `GET /v1/models` (Atomic Chat нормализует имена: префикс автора удаляется, точки заменяются на подчёркивания). + +:::note +После мерджа записи Atomic Chat в [Models.dev](https://models.dev) провайдер и все благословлённые модели появятся в `/connect` и `/models` автоматически — без единой строчки конфига. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/th/providers.mdx b/packages/web/src/content/docs/th/providers.mdx index 73489b96ad4f..91e07098b467 100644 --- a/packages/web/src/content/docs/th/providers.mdx +++ b/packages/web/src/content/docs/th/providers.mdx @@ -321,6 +321,64 @@ OpenCode Go คือแผนการสมัครสมาชิกรา --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) เป็นแอปพลิเคชันเดสก์ท็อปสำหรับรัน LLM ในเครื่อง โดยเปิดเซิร์ฟเวอร์ API ที่เข้ากันได้กับ OpenAI บนพอร์ตคงที่ `1337` + +:::tip +พอร์ต `1337` คือสัญญาสาธารณะของ Atomic Chat และจะไม่เปลี่ยนแปลงระหว่างเวอร์ชัน ดังนั้นการตั้งค่านี้จึงเสถียรสำหรับผู้ใช้ทุกคน +::: + +1. เปิดแอป Atomic Chat และโหลดโมเดลอย่างน้อยหนึ่งรายการ (เช่น _Qwen3.5 9B_, _Gemma 4 E4B_ หรือ _MiniMax M2.5_) + +2. ตรวจสอบว่าเซิร์ฟเวอร์ในเครื่องกำลังตอบสนอง: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. กำหนดค่า OpenCode ให้ใช้ Atomic Chat ผ่านไฟล์กำหนดค่าของคุณ: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. รันคำสั่ง `/models` เพื่อเลือกโมเดลที่โหลดไว้ + + ```txt + /models + ``` + +ในตัวอย่างนี้: + +- `atomic-chat` คือตัวระบุผู้ให้บริการ สามารถเป็นสตริงใดก็ได้ตามที่คุณต้องการ +- `npm` คือแพ็กเกจ AI SDK ใช้ `@ai-sdk/openai-compatible` เนื่องจาก Atomic Chat เปิด API ที่เข้ากันได้กับ OpenAI +- `name` คือชื่อที่แสดงใน UI +- `options.baseURL` คือ endpoint ของเซิร์ฟเวอร์ในเครื่อง +- `models` คือแผนที่ของ ID โมเดล แต่ละ ID ต้องตรงกับ `id` ที่ `GET /v1/models` คืนค่า (Atomic Chat ทำให้ชื่อเป็นรูปแบบมาตรฐาน — คำนำหน้าของผู้สร้างจะถูกตัดออก และจุดจะถูกแทนที่ด้วยเครื่องหมายขีดล่าง) + +:::note +เมื่อรายการ Atomic Chat ถูกรวมเข้าไปใน [Models.dev](https://models.dev) ผู้ให้บริการและโมเดลที่ได้รับพรทั้งหมดจะปรากฏใน `/connect` และ `/models` โดยอัตโนมัติ — ไม่ต้องกำหนดค่าใดๆ +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/tr/providers.mdx b/packages/web/src/content/docs/tr/providers.mdx index 871f9e128ca9..3b204ba901df 100644 --- a/packages/web/src/content/docs/tr/providers.mdx +++ b/packages/web/src/content/docs/tr/providers.mdx @@ -323,6 +323,64 @@ Veya zaten bir API anahtarınız varsa **API Anahtarını Manuel Olarak Girin** --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat), yerel LLM'leri çalıştırmak için bir masaüstü uygulamasıdır. Sabit `1337` portu üzerinde OpenAI uyumlu bir API sunucusu sunar. + +:::tip +`1337` portu, Atomic Chat'in kamuya açık sözleşmesidir. Sürümler arasında değişmez, bu nedenle bu yapılandırma tüm kullanıcılar için stabildir. +::: + +1. Atomic Chat uygulamasını başlatın ve en az bir model yükleyin (örneğin, _Qwen3.5 9B_, _Gemma 4 E4B_ veya _MiniMax M2.5_). + +2. Yerel sunucunun yanıt verdiğini doğrulayın: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. OpenCode'u yapılandırma dosyanız aracılığıyla Atomic Chat'i kullanacak şekilde yapılandırın: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. Yüklenen modeli seçmek için `/models` komutunu çalıştırın. + + ```txt + /models + ``` + +Bu örnekte: + +- `atomic-chat`, sağlayıcı tanımlayıcısıdır. İstediğiniz herhangi bir dize olabilir. +- `npm`, AI SDK paketidir. Atomic Chat OpenAI uyumlu bir API sunduğundan `@ai-sdk/openai-compatible` kullanılır. +- `name`, arayüzde gösterilen addır. +- `options.baseURL`, yerel sunucu uç noktasıdır. +- `models`, model kimliklerinin bir eşlemesidir. Her kimlik, `GET /v1/models` tarafından döndürülen `id` ile eşleşmelidir (Atomic Chat adları normalleştirir — yazar öneki kaldırılır ve noktalar alt çizgilerle değiştirilir). + +:::note +Atomic Chat girişi [Models.dev](https://models.dev)'e birleştirildikten sonra sağlayıcı ve tüm kutsanmış modeller, herhangi bir yapılandırmaya gerek kalmadan `/connect` ve `/models` içinde otomatik olarak görünür. +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/zh-cn/providers.mdx b/packages/web/src/content/docs/zh-cn/providers.mdx index 25b7d03a4d4c..6f31108ed992 100644 --- a/packages/web/src/content/docs/zh-cn/providers.mdx +++ b/packages/web/src/content/docs/zh-cn/providers.mdx @@ -295,6 +295,64 @@ OpenCode Zen 是由 OpenCode 团队提供的模型列表,这些模型已经过 --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) 是一款用于运行本地 LLM 的桌面应用程序。它在固定端口 `1337` 上公开一个与 OpenAI 兼容的 API 服务器。 + +:::tip +端口 `1337` 是 Atomic Chat 的公开契约。它不会在版本之间更改,因此此配置对每个用户都是稳定的。 +::: + +1. 启动 Atomic Chat 应用并加载至少一个模型(例如 _Qwen3.5 9B_、_Gemma 4 E4B_ 或 _MiniMax M2.5_)。 + +2. 验证本地服务器是否响应: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. 通过配置文件配置 OpenCode 使用 Atomic Chat: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. 运行 `/models` 命令以选择已加载的模型。 + + ```txt + /models + ``` + +在此示例中: + +- `atomic-chat` 是提供商标识符。可以是任何你喜欢的字符串。 +- `npm` 是 AI SDK 包。由于 Atomic Chat 公开了与 OpenAI 兼容的 API,因此使用 `@ai-sdk/openai-compatible`。 +- `name` 是 UI 中显示的名称。 +- `options.baseURL` 是本地服务器端点。 +- `models` 是模型 ID 的映射。每个 ID 必须与 `GET /v1/models` 返回的 `id` 相匹配(Atomic Chat 会规范化名称——移除作者前缀,点号替换为下划线)。 + +:::note +一旦 Atomic Chat 条目合并到 [Models.dev](https://models.dev),提供商和所有加持的模型将自动显示在 `/connect` 和 `/models` 中——无需配置。 +::: + +--- + ### Azure OpenAI :::note diff --git a/packages/web/src/content/docs/zh-tw/providers.mdx b/packages/web/src/content/docs/zh-tw/providers.mdx index 1024444d1849..ba92cb5b5c91 100644 --- a/packages/web/src/content/docs/zh-tw/providers.mdx +++ b/packages/web/src/content/docs/zh-tw/providers.mdx @@ -316,6 +316,64 @@ OpenCode Go 是一個低成本的訂閱計畫,提供對 OpenCode 團隊提供 --- +### Atomic Chat + +[Atomic Chat](https://atomic.chat) 是一款用於執行本機 LLM 的桌面應用程式。它在固定連接埠 `1337` 上公開一個與 OpenAI 相容的 API 伺服器。 + +:::tip +連接埠 `1337` 是 Atomic Chat 的公開契約。它不會在版本之間變更,因此此設定對每位使用者都是穩定的。 +::: + +1. 啟動 Atomic Chat 應用程式並載入至少一個模型(例如 _Qwen3.5 9B_、_Gemma 4 E4B_ 或 _MiniMax M2.5_)。 + +2. 驗證本機伺服器是否有回應: + + ```bash + curl http://127.0.0.1:1337/v1/models + ``` + +3. 透過設定檔設定 OpenCode 使用 Atomic Chat: + + ```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14} + { + "$schema": "https://opencode.ai/config.json", + "provider": { + "atomic-chat": { + "npm": "@ai-sdk/openai-compatible", + "name": "Atomic Chat (local)", + "options": { + "baseURL": "http://127.0.0.1:1337/v1" + }, + "models": { + "Qwen3_5-9B-IQ4_XS": { + "name": "Qwen3.5 9B (local)" + } + } + } + } + } + ``` + +4. 執行 `/models` 指令以選擇已載入的模型。 + + ```txt + /models + ``` + +在此範例中: + +- `atomic-chat` 是提供者識別碼。可以是任何字串。 +- `npm` 是 AI SDK 套件。由於 Atomic Chat 公開了與 OpenAI 相容的 API,因此使用 `@ai-sdk/openai-compatible`。 +- `name` 是 UI 中顯示的名稱。 +- `options.baseURL` 是本機伺服器端點。 +- `models` 是模型 ID 的對應。每個 ID 必須與 `GET /v1/models` 傳回的 `id` 相符(Atomic Chat 會將名稱正規化——移除作者前綴,點號以底線取代)。 + +:::note +當 Atomic Chat 條目合併至 [Models.dev](https://models.dev) 後,提供者與所有受祝福的模型將自動出現在 `/connect` 和 `/models` 中——無需設定。 +::: + +--- + ### Azure OpenAI :::note