Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/ar/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -319,6 +319,64 @@ OpenCode Go هي خطة اشتراك منخفضة التكلفة توفّر وص

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) هو تطبيق سطح مكتب لتشغيل نماذج LLM محلياً. يكشف عن خادم API متوافق مع OpenAI على المنفذ الثابت `1337`.

:::tip
المنفذ `1337` هو العقد العام لـ Atomic Chat. لا يتغير بين الإصدارات، لذلك يظل هذا التكوين مستقراً لكل مستخدم.
:::

1. شغّل تطبيق Atomic Chat وحمّل نموذجاً واحداً على الأقل (على سبيل المثال، _Qwen3.5 9B_، أو _Gemma 4 E4B_، أو _MiniMax M2.5_).

2. تحقق من أن الخادم المحلي يستجيب:

```bash
curl http://127.0.0.1:1337/v1/models
```

3. قم بتكوين OpenCode لاستخدام Atomic Chat عبر ملف التكوين الخاص بك:

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. شغّل الأمر `/models` لاختيار النموذج المحمّل.

```txt
/models
```

في هذا المثال:

- `atomic-chat` هو معرّف المزوّد. يمكن أن يكون أي سلسلة تريدها.
- `npm` هو حزمة AI SDK. يُستخدم `@ai-sdk/openai-compatible` لأن Atomic Chat يكشف عن واجهة برمجة تطبيقات متوافقة مع OpenAI.
- `name` هو الاسم المعروض في واجهة المستخدم.
- `options.baseURL` هو نقطة نهاية الخادم المحلي.
- `models` هو خريطة لمعرّفات النماذج. يجب أن يتطابق كل معرّف مع `id` الذي تُرجعه `GET /v1/models` (يقوم Atomic Chat بتطبيع الأسماء — تتم إزالة بادئة المؤلف واستبدال النقاط بالشرطات السفلية).

:::note
بمجرد دمج إدخال Atomic Chat في [Models.dev](https://models.dev)، سيظهر المزوّد وجميع النماذج المباركة تلقائياً في `/connect` و `/models` — دون الحاجة إلى تكوين.
:::

---

### Azure OpenAI

:::note
Expand Down
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/bs/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -324,6 +324,64 @@ Ili ako već imate API ključ, možete odabrati **Ručno unesite API ključ** i

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) je desktop aplikacija za pokretanje lokalnih LLM-ova. Izlaže OpenAI-kompatibilan API server na fiksnom portu `1337`.

:::tip
Port `1337` je javni ugovor Atomic Chata. Ne mijenja se između verzija, pa je ova konfiguracija stabilna za sve korisnike.
:::

1. Pokrenite Atomic Chat aplikaciju i učitajte najmanje jedan model (na primjer, _Qwen3.5 9B_, _Gemma 4 E4B_ ili _MiniMax M2.5_).

2. Provjerite da li lokalni server odgovara:

```bash
curl http://127.0.0.1:1337/v1/models
```

3. Konfigurišite OpenCode da koristi Atomic Chat putem vaše konfiguracijske datoteke:

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. Pokrenite naredbu `/models` za odabir učitanog modela.

```txt
/models
```

U ovom primjeru:

- `atomic-chat` je identifikator dobavljača. Može biti bilo koji string koji želite.
- `npm` je AI SDK paket. Koristi se `@ai-sdk/openai-compatible` jer Atomic Chat izlaže OpenAI-kompatibilan API.
- `name` je ime prikazano u korisničkom sučelju.
- `options.baseURL` je krajnja tačka lokalnog servera.
- `models` je mapa ID-jeva modela. Svaki ID mora odgovarati `id` koji vraća `GET /v1/models` (Atomic Chat normalizira imena — prefiks autora se uklanja, a tačke se zamjenjuju donjim crticama).

:::note
Kada se unos Atomic Chata spoji u [Models.dev](https://models.dev), dobavljač i svi blagoslovljeni modeli automatski će se pojaviti u `/connect` i `/models` — bez potrebe za konfiguracijom.
:::

---

### Azure OpenAI

:::note
Expand Down
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/da/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -315,6 +315,64 @@ Eller hvis du allerede har en API-nøgle, kan du vælge **Manually enter API Key

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) er et skrivebordsprogram til at køre lokale LLM'er. Det eksponerer en OpenAI-kompatibel API-server på den faste port `1337`.

:::tip
Port `1337` er Atomic Chats offentlige kontrakt. Den ændrer sig ikke mellem versioner, så denne konfiguration er stabil for alle brugere.
:::

1. Start Atomic Chat-appen og indlæs mindst én model (for eksempel _Qwen3.5 9B_, _Gemma 4 E4B_ eller _MiniMax M2.5_).

2. Bekræft, at den lokale server svarer:

```bash
curl http://127.0.0.1:1337/v1/models
```

3. Konfigurer OpenCode til at bruge Atomic Chat via din konfigurationsfil:

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. Kør kommandoen `/models` for at vælge den indlæste model.

```txt
/models
```

I dette eksempel:

- `atomic-chat` er udbyder-id'et. Det kan være en hvilken som helst streng, du ønsker.
- `npm` er AI SDK-pakken. `@ai-sdk/openai-compatible` bruges, fordi Atomic Chat eksponerer et OpenAI-kompatibelt API.
- `name` er det navn, der vises i UI'en.
- `options.baseURL` er den lokale servers endpoint.
- `models` er et kort over model-id'er. Hvert id skal matche det `id`, som `GET /v1/models` returnerer (Atomic Chat normaliserer navne — forfatter-præfikset fjernes, og punktummer erstattes med understregninger).

:::note
Når Atomic Chat-posten er flettet ind i [Models.dev](https://models.dev), vises udbyderen og alle velsignede modeller automatisk i `/connect` og `/models` — uden konfiguration.
:::

---

### Azure OpenAI

:::note
Expand Down
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/de/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -321,6 +321,64 @@ Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüs

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) ist eine Desktop-Anwendung zum Ausführen lokaler LLMs. Sie stellt einen OpenAI-kompatiblen API-Server am festen Port `1337` bereit.

:::tip
Port `1337` ist der öffentliche Vertrag von Atomic Chat. Er ändert sich zwischen Versionen nicht, sodass die Konfiguration für jeden Nutzer stabil ist.
:::

1. Starten Sie die Atomic-Chat-Anwendung und laden Sie mindestens ein Modell (zum Beispiel _Qwen3.5 9B_, _Gemma 4 E4B_ oder _MiniMax M2.5_).

2. Prüfen Sie, dass der lokale Server antwortet:

```bash
curl http://127.0.0.1:1337/v1/models
```

3. Konfigurieren Sie OpenCode, um Atomic Chat über Ihre Konfigurationsdatei zu verwenden:

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. Führen Sie den Befehl `/models` aus, um das geladene Modell auszuwählen.

```txt
/models
```

In diesem Beispiel:

- `atomic-chat` ist die Provider-Kennung. Sie kann eine beliebige Zeichenkette sein.
- `npm` ist das AI-SDK-Paket. `@ai-sdk/openai-compatible` wird verwendet, weil Atomic Chat eine OpenAI-kompatible API bereitstellt.
- `name` ist der in der UI angezeigte Name.
- `options.baseURL` ist der Endpunkt des lokalen Servers.
- `models` ist eine Zuordnung von Modell-IDs. Jede ID muss dem `id`-Wert entsprechen, den `GET /v1/models` zurückgibt (Atomic Chat normalisiert Namen — das Autoren-Präfix wird entfernt und Punkte werden durch Unterstriche ersetzt).

:::note
Sobald der Atomic-Chat-Eintrag in [Models.dev](https://models.dev) gemergt wird, erscheinen der Provider und alle gesegneten Modelle automatisch in `/connect` und `/models` — ohne Konfiguration.
:::

---

### Azure OpenAI

:::note
Expand Down
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/es/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -322,6 +322,64 @@ O si ya tienes una clave API, puedes seleccionar **Ingresar manualmente la clave

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) es una aplicación de escritorio para ejecutar LLMs locales. Expone un servidor API compatible con OpenAI en el puerto fijo `1337`.

:::tip
El puerto `1337` es el contrato público de Atomic Chat. No cambia entre versiones, por lo que esta configuración es estable para todos los usuarios.
:::

1. Inicia la aplicación Atomic Chat y carga al menos un modelo (por ejemplo, _Qwen3.5 9B_, _Gemma 4 E4B_ o _MiniMax M2.5_).

2. Verifica que el servidor local esté respondiendo:

```bash
curl http://127.0.0.1:1337/v1/models
```

3. Configura OpenCode para que use Atomic Chat mediante tu archivo de configuración:

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. Ejecuta el comando `/models` para seleccionar el modelo cargado.

```txt
/models
```

En este ejemplo:

- `atomic-chat` es el identificador del proveedor. Puede ser cualquier cadena que prefieras.
- `npm` es el paquete del AI SDK. Se utiliza `@ai-sdk/openai-compatible` porque Atomic Chat expone una API compatible con OpenAI.
- `name` es el nombre que se muestra en la interfaz.
- `options.baseURL` es el endpoint del servidor local.
- `models` es un mapa de IDs de modelos. Cada ID debe coincidir con el `id` devuelto por `GET /v1/models` (Atomic Chat normaliza los nombres — se elimina el prefijo del autor y los puntos se reemplazan por guiones bajos).

:::note
Una vez que la entrada de Atomic Chat se fusione en [Models.dev](https://models.dev), el proveedor y todos los modelos bendecidos aparecerán automáticamente en `/connect` y `/models` — sin necesidad de configuración.
:::

---

### Azure OpenAI

:::note
Expand Down
58 changes: 58 additions & 0 deletions packages/web/src/content/docs/fr/providers.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -325,6 +325,64 @@ Ou si vous disposez déjà d'une clé API, vous pouvez sélectionner **Entrer ma

---

### Atomic Chat

[Atomic Chat](https://atomic.chat) est une application de bureau permettant d'exécuter des LLM en local. Elle expose un serveur API compatible OpenAI sur le port fixe `1337`.

:::tip
Le port `1337` est le contrat public d'Atomic Chat. Il ne change pas entre les versions, donc cette configuration est stable pour chaque utilisateur.
:::

1. Lancez l'application Atomic Chat et chargez au moins un modèle (par exemple _Qwen3.5 9B_, _Gemma 4 E4B_ ou _MiniMax M2.5_).

2. Vérifiez que le serveur local répond :

```bash
curl http://127.0.0.1:1337/v1/models
```

3. Configurez OpenCode pour utiliser Atomic Chat via votre fichier de configuration :

```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"Qwen3_5-9B-IQ4_XS": {
"name": "Qwen3.5 9B (local)"
}
}
}
}
}
```

4. Exécutez la commande `/models` pour sélectionner le modèle chargé.

```txt
/models
```

Dans cet exemple :

- `atomic-chat` est l'identifiant du fournisseur. Il peut s'agir de n'importe quelle chaîne de caractères.
- `npm` est le paquet AI SDK. `@ai-sdk/openai-compatible` est utilisé car Atomic Chat expose une API compatible OpenAI.
- `name` est le nom d'affichage dans l'interface.
- `options.baseURL` est le point de terminaison du serveur local.
- `models` est un mappage d'identifiants de modèles. Chaque ID doit correspondre à l'`id` renvoyé par `GET /v1/models` (Atomic Chat normalise les noms — le préfixe de l'auteur est supprimé et les points sont remplacés par des tirets bas).

:::note
Une fois l'entrée Atomic Chat fusionnée dans [Models.dev](https://models.dev), le fournisseur et tous les modèles bénis apparaîtront automatiquement dans `/connect` et `/models` — sans aucune configuration.
:::

---

### Azure OpenAI

:::note
Expand Down
Loading
Loading