Do you mean: - Comet (comet.com, aka Comet ML / CometLLM for LLM observability), or - CometChat (cometchat.com messaging API)? If you mean Comet (Comet ML/CometLLM), there’s no official, built‑in AnythingLLM integration yet, but you can integrate via either of these patterns: Option A — OpenAI‑compatible relay (no changes to AnythingLLM) - Goal: Insert a small proxy between AnythingLLM and your LLM provider to log prompts/responses to Comet. - Steps: 1) Deploy a relay that exposes /v1/chat/completions (and /v1/embeddings if needed). In the handler, start a CometLLM trace, forward the request to your real provider, stream/collect the response, log metadata/tokens, then return the response. 2) Set AnythingLLM to use your relay: - Provider: OpenAI (or any OpenAI‑compatible) - Base URL: your relay URL - API Key: your relay’s key (the relay then uses the real provider key internally) 3) Configure the relay with COMET_API_KEY (and COMET_WORKSPACE/COMET_PROJECT). - Minimal outline (Node/Express + comet-llm + upstream OpenAI client): - Read COMET_API_KEY from env. - POST /v1/chat/completions: - Create a CometLLM trace/run with request metadata (model, messages, user, latency). - Call upstream OpenAI’s chat.completions.create. - Log tokens, cost (if available), and response text. - Return upstream response as‑is so AnythingLLM remains unaware of the proxy. Option B — Instrument AnythingLLM’s provider layer (requires forking/self‑hosting) - Goal: Add CometLLM logging inside AnythingLLM where it calls OpenAI/Anthropic/etc. - Steps: 1) Fork AnythingLLM and locate the LLM provider modules (e.g., OpenAI/Anthropic adapters). 2) Wrap calls with CometLLM SDK (JS/TS): - Before calling the model, start a trace/run; include system/user prompts, tool calls, thread IDs, and any conversation metadata. - After receiving the response (or stream chunks), log tokens, latency, status, and final text. 3) Expose COMET_API_KEY/COMET_WORKSPACE/COMET_PROJECT via env. 4) Rebuild and deploy your fork. Best practices - Do not log secrets or raw PII; use Comet’s redaction/anonymization to scrub prompts if needed. - Include AnythingLLM conversation/thread IDs in Comet metadata for correlation. - For streaming, log incremental tokens or buffer and emit a single completion with timing. If you meant CometChat (messaging), typical approaches are: - Create a small middleware service that listens to AnythingLLM events (e.g., message created) and forwards them to CometChat rooms/users via CometChat REST APIs. - Or implement a custom “tool” in AnythingLLM that calls your service, which then uses CometChat APIs with your appId/apiKey. Tell me which “Comet” you’re using and whether you prefer a no‑code relay or a code change in AnythingLLM, and I can provide concrete setup steps and a ready‑to‑run skeleton.

CometAPI
AnnaNov 18, 2025
Do you mean:
- Comet (comet.com, aka Comet ML / CometLLM for LLM observability), or
- CometChat (cometchat.com messaging API)?

If you mean Comet (Comet ML/CometLLM), there’s no official, built‑in AnythingLLM integration yet, but you can integrate via either of these patterns:

Option A — OpenAI‑compatible relay (no changes to AnythingLLM)
- Goal: Insert a small proxy between AnythingLLM and your LLM provider to log prompts/responses to Comet.
- Steps:
  1) Deploy a relay that exposes /v1/chat/completions (and /v1/embeddings if needed). In the handler, start a CometLLM trace, forward the request to your real provider, stream/collect the response, log metadata/tokens, then return the response.
  2) Set AnythingLLM to use your relay:
     - Provider: OpenAI (or any OpenAI‑compatible)
     - Base URL: your relay URL
     - API Key: your relay’s key (the relay then uses the real provider key internally)
  3) Configure the relay with COMET_API_KEY (and COMET_WORKSPACE/COMET_PROJECT).
- Minimal outline (Node/Express + comet-llm + upstream OpenAI client):
  - Read COMET_API_KEY from env.
  - POST /v1/chat/completions:
    - Create a CometLLM trace/run with request metadata (model, messages, user, latency).
    - Call upstream OpenAI’s chat.completions.create.
    - Log tokens, cost (if available), and response text.
    - Return upstream response as‑is so AnythingLLM remains unaware of the proxy.

Option B — Instrument AnythingLLM’s provider layer (requires forking/self‑hosting)
- Goal: Add CometLLM logging inside AnythingLLM where it calls OpenAI/Anthropic/etc.
- Steps:
  1) Fork AnythingLLM and locate the LLM provider modules (e.g., OpenAI/Anthropic adapters).
  2) Wrap calls with CometLLM SDK (JS/TS):
     - Before calling the model, start a trace/run; include system/user prompts, tool calls, thread IDs, and any conversation metadata.
     - After receiving the response (or stream chunks), log tokens, latency, status, and final text.
  3) Expose COMET_API_KEY/COMET_WORKSPACE/COMET_PROJECT via env.
  4) Rebuild and deploy your fork.

Best practices
- Do not log secrets or raw PII; use Comet’s redaction/anonymization to scrub prompts if needed.
- Include AnythingLLM conversation/thread IDs in Comet metadata for correlation.
- For streaming, log incremental tokens or buffer and emit a single completion with timing.

If you meant CometChat (messaging), typical approaches are:
- Create a small middleware service that listens to AnythingLLM events (e.g., message created) and forwards them to CometChat rooms/users via CometChat REST APIs.
- Or implement a custom “tool” in AnythingLLM that calls your service, which then uses CometChat APIs with your appId/apiKey.

Tell me which “Comet” you’re using and whether you prefer a no‑code relay or a code change in AnythingLLM, and I can provide concrete setup steps and a ready‑to‑run skeleton.

I 2025–2026 fortsatte AI-verktøylandskapet å konsolidere seg: gateway-API-er (som CometAPI) ble utvidet for å gi OpenAI-lignende tilgang til hundrevis av modeller, mens sluttbruker-LLM-apper (som AnythingLLM) fortsatte å forbedre sin «Generic OpenAI»-leverandør slik at desktop- og local-first-apper kan kalle ethvert OpenAI-kompatibelt endepunkt. Det gjør det i dag enkelt å rute AnythingLLM-trafikk gjennom CometAPI og få fordelene med modellvalg, kostnadsruting og samlet fakturering — samtidig som du fortsatt bruker AnythingLLMs lokale UI og RAG-/agentfunksjoner.

Hva er AnythingLLM, og hvorfor vil du koble det til CometAPI?

Hva er AnythingLLM?

AnythingLLM er en åpen kildekode-basert, alt-i-ett AI-applikasjon og lokal/skylient for å bygge chatassistenter, retrieval-augmented generation (RAG)-arbeidsflyter og LLM-drevne agenter. Den tilbyr et elegant UI, et utvikler-API, arbeidsområde-/agentfunksjoner og støtte for lokale og skybaserte LLM-er — designet for å være privat som standard og utvidbar via plugins. AnythingLLM eksponerer en Generic OpenAI-leverandør som lar den kommunisere med OpenAI-kompatible LLM-API-er.

Hva er CometAPI?

CometAPI er en kommersiell API-aggregeringsplattform som eksponerer 500+ AI-modeller gjennom ett OpenAI-lignende REST-grensesnitt og samlet fakturering. I praksis lar den deg kalle modeller fra flere leverandører (OpenAI, Anthropic, Google/Gemini-varianter, bilde-/lydmodeller osv.) via de samme endepunktene https://api.cometapi.com/v1 og én enkelt API-nøkkel (format sk-xxxxx). CometAPI støtter standard OpenAI-lignende endepunkter som /v1/chat/completions, /v1/embeddings osv., noe som gjør det enkelt å tilpasse verktøy som allerede støtter OpenAI-kompatible API-er.

Hvorfor integrere AnythingLLM med CometAPI?

Tre praktiske grunner:

  1. Modellvalg og leverandørfleksibilitet: AnythingLLM kan bruke «enhver OpenAI-kompatibel» LLM via sin Generic OpenAI-wrapper. Hvis du peker denne wrapperen mot CometAPI, får du umiddelbar tilgang til hundrevis av modeller uten å endre AnythingLLMs UI eller flyter.
  2. Kostnads-/driftsoptimalisering: Ved å bruke CometAPI kan du bytte modeller (eller nedskalere til rimeligere modeller) sentralt for kostnadskontroll, og beholde samlet fakturering i stedet for å håndtere flere leverandørnøkler.
  3. Raskere eksperimentering: Du kan A/B-teste ulike modeller (f.eks. gpt-4o, gpt-4.5, Claude-varianter eller åpne multimodale modeller) via det samme AnythingLLM-UI-et — nyttig for agenter, RAG-svar, oppsummering og multimodale oppgaver.

Hvilket miljø og hvilke betingelser må du forberede før integrering?

System- og programvarekrav (på høyt nivå)

  • Desktop eller server som kjører AnythingLLM (Windows, macOS, Linux) — desktopinstallasjon eller selvhostet instans. Bekreft at du bruker en nyere build som eksponerer innstillingene LLM Preferences / AI Providers.
  • CometAPI-konto og en API-nøkkel (hemmeligheten i sk-xxxxx-stil). Du vil bruke denne hemmeligheten i AnythingLLMs Generic OpenAI-leverandør.
  • Nettverkstilkobling fra maskinen din til https://api.cometapi.com (ingen brannmur som blokkerer utgående HTTPS).
  • Valgfritt, men anbefalt: et moderne Python- eller Node-miljø for testing (Python 3.10+ eller Node 18+), curl og en HTTP-klient (Postman / HTTPie) for å sanity-sjekke CometAPI før du kobler det til AnythingLLM.

AnythingLLM-spesifikke betingelser

LLM-leverandøren Generic OpenAI er den anbefalte ruten for endepunkter som etterligner OpenAIs API-flate. AnythingLLMs dokumentasjon advarer om at denne leverandøren er utviklerfokusert, og at du bør forstå inputene du oppgir. Hvis du bruker streaming eller endepunktet ditt ikke støtter streaming, inkluderer AnythingLLM en innstilling for å deaktivere streaming for Generic OpenAI.

Sikkerhets- og driftsjekkliste

  • Behandle CometAPI-nøkkelen som enhver annen hemmelighet — ikke commit den til repos; lagre den i OS-nøkkelringer eller miljøvariabler der det er mulig.
  • Hvis du planlegger å bruke sensitive dokumenter i RAG, må du forsikre deg om at personvern- og sikkerhetsgarantiene for endepunktet oppfyller dine compliance-behov (sjekk CometAPIs dokumentasjon/vilkår).
  • Bestem maks tokens og kontekstvindugrenser for å forhindre ukontrollerte kostnader.

Hvordan konfigurerer du AnythingLLM til å bruke CometAPI (trinn for trinn)?

Nedenfor følger en konkret trinnsekvens — etterfulgt av eksempel på miljøvariabler og kodebiter for å teste tilkoblingen før du lagrer innstillingene i AnythingLLM-UI-et.

Trinn 1 — Hent CometAPI-nøkkelen din

  1. Registrer deg eller logg inn på CometAPI.
  2. Gå til «API Keys» og generer en nøkkel — du får en streng som ser ut som sk-xxxxx. Hold den hemmelig.

Trinn 2 — Verifiser at CometAPI fungerer med en rask forespørsel

Bruk curl eller Python til å kalle et enkelt chat completion-endepunkt for å bekrefte tilkobling.

Curl-eksempel

curl -X POST "https://api.cometapi.com/v1/chat/completions" \
  -H "Authorization: Bearer sk-xxxxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": ,
    "max_tokens": 50
  }'

Hvis dette returnerer en 200 og et JSON-svar med en choices-matrise, fungerer nøkkelen og nettverket ditt. (CometAPIs dokumentasjon viser den OpenAI-lignende API-flaten og endepunktene).

Python-eksempel (requests)

import requests
url = "https://api.cometapi.com/v1/chat/completions"
headers = {"Authorization": "Bearer sk-xxxxx", "Content-Type": "application/json"}
payload = {
  "model": "gpt-4o",
  "messages": ,
  "max_tokens": 64
}
r = requests.post(url, json=payload, headers=headers, timeout=15)
print(r.status_code, r.json())

Trinn 3 — Konfigurer AnythingLLM (UI)

Åpne AnythingLLM → Settings → AI ProvidersLLM Preferences (eller lignende sti i din versjon). Bruk leverandøren Generic OpenAI og fyll inn feltene slik:

API-konfigurasjon (eksempel)
• Gå inn i AnythingLLMs innstillingsmeny, og finn LLM Preferences under AI Providers.
• Velg Generic OpenAI som modellleverandør, og skriv inn https://api.cometapi.com/v1 i URL-feltet.
• Lim inn sk-xxxxx fra CometAPI i feltet for API-nøkkel. Fyll inn Token context window og Max Tokens i henhold til den faktiske modellen. Du kan også tilpasse modellnavn på denne siden, for eksempel ved å legge til modellen gpt-4o.

Dette samsvarer med AnythingLLMs veiledning for «Generic OpenAI» (utvikler-wrapper) og CometAPIs OpenAI-kompatible base-URL-tilnærming.

Do you mean:
- Comet (comet.com, aka Comet ML / CometLLM for LLM observability), or
- CometChat (cometchat.com messaging API)?

If you mean Comet (Comet ML/CometLLM), there’s no official, built‑in AnythingLLM integration yet, but you can integrate via either of these patterns:

Option A — OpenAI‑compatible relay (no changes to AnythingLLM)
- Goal: Insert a small proxy between AnythingLLM and your LLM provider to log prompts/responses to Comet.
- Steps:
  1) Deploy a relay that exposes /v1/chat/completions (and /v1/embeddings if needed). In the handler, start a CometLLM trace, forward the request to your real provider, stream/collect the response, log metadata/tokens, then return the response.
  2) Set AnythingLLM to use your relay:
     - Provider: OpenAI (or any OpenAI‑compatible)
     - Base URL: your relay URL
     - API Key: your relay’s key (the relay then uses the real provider key internally)
  3) Configure the relay with COMET_API_KEY (and COMET_WORKSPACE/COMET_PROJECT).
- Minimal outline (Node/Express + comet-llm + upstream OpenAI client):
  - Read COMET_API_KEY from env.
  - POST /v1/chat/completions:
    - Create a CometLLM trace/run with request metadata (model, messages, user, latency).
    - Call upstream OpenAI’s chat.completions.create.
    - Log tokens, cost (if available), and response text.
    - Return upstream response as‑is so AnythingLLM remains unaware of the proxy.

Option B — Instrument AnythingLLM’s provider layer (requires forking/self‑hosting)
- Goal: Add CometLLM logging inside AnythingLLM where it calls OpenAI/Anthropic/etc.
- Steps:
  1) Fork AnythingLLM and locate the LLM provider modules (e.g., OpenAI/Anthropic adapters).
  2) Wrap calls with CometLLM SDK (JS/TS):
     - Before calling the model, start a trace/run; include system/user prompts, tool calls, thread IDs, and any conversation metadata.
     - After receiving the response (or stream chunks), log tokens, latency, status, and final text.
  3) Expose COMET_API_KEY/COMET_WORKSPACE/COMET_PROJECT via env.
  4) Rebuild and deploy your fork.

Best practices
- Do not log secrets or raw PII; use Comet’s redaction/anonymization to scrub prompts if needed.
- Include AnythingLLM conversation/thread IDs in Comet metadata for correlation.
- For streaming, log incremental tokens or buffer and emit a single completion with timing.

If you meant CometChat (messaging), typical approaches are:
- Create a small middleware service that listens to AnythingLLM events (e.g., message created) and forwards them to CometChat rooms/users via CometChat REST APIs.
- Or implement a custom “tool” in AnythingLLM that calls your service, which then uses CometChat APIs with your appId/apiKey.

Tell me which “Comet” you’re using and whether you prefer a no‑code relay or a code change in AnythingLLM, and I can provide concrete setup steps and a ready‑to‑run skeleton.

Trinn 4 — Angi modellnavn og token-grenser

På samme innstillingsskjerm legger du til eller tilpasser modellnavn nøyaktig slik CometAPI publiserer dem (f.eks. gpt-4o, minimax-m2, kimi-k2-thinking), slik at AnythingLLM-UI-et kan presentere disse modellene for brukerne. CometAPI publiserer modellstrenger for hver leverandør.

Do you mean:
- Comet (comet.com, aka Comet ML / CometLLM for LLM observability), or
- CometChat (cometchat.com messaging API)?

If you mean Comet (Comet ML/CometLLM), there’s no official, built‑in AnythingLLM integration yet, but you can integrate via either of these patterns:

Option A — OpenAI‑compatible relay (no changes to AnythingLLM)
- Goal: Insert a small proxy between AnythingLLM and your LLM provider to log prompts/responses to Comet.
- Steps:
  1) Deploy a relay that exposes /v1/chat/completions (and /v1/embeddings if needed). In the handler, start a CometLLM trace, forward the request to your real provider, stream/collect the response, log metadata/tokens, then return the response.
  2) Set AnythingLLM to use your relay:
     - Provider: OpenAI (or any OpenAI‑compatible)
     - Base URL: your relay URL
     - API Key: your relay’s key (the relay then uses the real provider key internally)
  3) Configure the relay with COMET_API_KEY (and COMET_WORKSPACE/COMET_PROJECT).
- Minimal outline (Node/Express + comet-llm + upstream OpenAI client):
  - Read COMET_API_KEY from env.
  - POST /v1/chat/completions:
    - Create a CometLLM trace/run with request metadata (model, messages, user, latency).
    - Call upstream OpenAI’s chat.completions.create.
    - Log tokens, cost (if available), and response text.
    - Return upstream response as‑is so AnythingLLM remains unaware of the proxy.

Option B — Instrument AnythingLLM’s provider layer (requires forking/self‑hosting)
- Goal: Add CometLLM logging inside AnythingLLM where it calls OpenAI/Anthropic/etc.
- Steps:
  1) Fork AnythingLLM and locate the LLM provider modules (e.g., OpenAI/Anthropic adapters).
  2) Wrap calls with CometLLM SDK (JS/TS):
     - Before calling the model, start a trace/run; include system/user prompts, tool calls, thread IDs, and any conversation metadata.
     - After receiving the response (or stream chunks), log tokens, latency, status, and final text.
  3) Expose COMET_API_KEY/COMET_WORKSPACE/COMET_PROJECT via env.
  4) Rebuild and deploy your fork.

Best practices
- Do not log secrets or raw PII; use Comet’s redaction/anonymization to scrub prompts if needed.
- Include AnythingLLM conversation/thread IDs in Comet metadata for correlation.
- For streaming, log incremental tokens or buffer and emit a single completion with timing.

If you meant CometChat (messaging), typical approaches are:
- Create a small middleware service that listens to AnythingLLM events (e.g., message created) and forwards them to CometChat rooms/users via CometChat REST APIs.
- Or implement a custom “tool” in AnythingLLM that calls your service, which then uses CometChat APIs with your appId/apiKey.

Tell me which “Comet” you’re using and whether you prefer a no‑code relay or a code change in AnythingLLM, and I can provide concrete setup steps and a ready‑to‑run skeleton.

Trinn 5 — Test i AnythingLLM

Start en ny chat eller bruk et eksisterende arbeidsområde, velg Generic OpenAI-leverandøren (hvis du har flere leverandører), velg ett av CometAPI-modellnavnene du la til, og kjør en enkel prompt. Hvis du får sammenhengende completions, er integrasjonen på plass.

Hvordan AnythingLLM bruker disse innstillingene internt

AnythingLLMs Generic OpenAI-wrapper bygger OpenAI-lignende forespørsler (/v1/chat/completions, /v1/embeddings), så når du har angitt base-URL og oppgitt CometAPI-nøkkelen, vil AnythingLLM rute chatter, agentkall og embedding-forespørsler gjennom CometAPI transparent. Hvis du bruker AnythingLLM-agenter (@agent-flytene), vil de arve samme leverandør.

Hva er beste praksis og mulige fallgruver?

Beste praksis

  1. Bruk modelltilpassede kontekstinnstillinger: Match AnythingLLMs Token Context Window og Max Tokens med modellen du velger i CometAPI. Uoverensstemmelser fører til uventet trunkering eller mislykkede kall.
  2. Sikre API-nøklene dine: Lagre CometAPI-nøkler i miljøvariabler og/eller Kubernetes/secret manager; legg dem aldri inn i git. AnythingLLM lagrer nøkler i sine lokale innstillinger hvis du skriver dem inn i UI-et — behandle vertslagringen som sensitiv.
  3. Start med rimeligere / mindre modeller for eksperimentflyter: Bruk CometAPI til å prøve modeller med lavere kostnad under utvikling, og reserver premiummodeller til produksjon. CometAPI reklamerer eksplisitt med kostnadsbytte og samlet fakturering.
  4. Overvåk bruk og sett varsler: CometAPI tilbyr bruksdashbord — sett budsjetter/varsler for å unngå uventede regninger.
  5. Test agenter og verktøy isolert: AnythingLLM-agenter kan utløse handlinger; test dem med trygge promter og på staging-instanser først.

Vanlige fallgruver

  • Konflikter mellom UI og .env: Ved selvhosting kan UI-innstillinger overskrive .env-endringer (og omvendt). Sjekk den genererte /app/server/.env hvis ting tilbakestilles etter omstart. Community-saker rapporterer at LLM_PROVIDER tilbakestilles.
  • Mangler i modellnavn: Bruk av et modellnavn som ikke er tilgjengelig på CometAPI, vil føre til 400/404 fra gatewayen. Bekreft alltid tilgjengelige modeller i CometAPIs modelliste.
  • Token-grenser og streaming: Hvis du trenger streamingsvar, må du verifisere at CometAPI-modellen støtter streaming (og at AnythingLLMs UI-versjon støtter det). Noen leverandører har ulik streaming-semantikk.

Hvilke praktiske brukstilfeller muliggjør denne integrasjonen?

Retrieval-Augmented Generation (RAG)

Bruk AnythingLLMs dokumentlastere + vektor-DB med CometAPI-LLM-er for å generere kontekstbevisste svar. Du kan eksperimentere med rimelige embedding-modeller + dyrere chatmodeller, eller holde alt på CometAPI for samlet fakturering. AnythingLLMs RAG-flyter er en primær innebygd funksjon.

Agentautomatisering

AnythingLLM støtter @agent-arbeidsflyter (bla gjennom sider, kalle verktøy, kjøre automatiseringer). Ved å rute agentenes LLM-kall gjennom CometAPI får du valg av modeller for kontroll-/tolkningstrinn uten å endre agentkode.

A/B-testing med flere modeller og kostnadsoptimalisering

Bytt modeller per arbeidsområde eller funksjon (f.eks. gpt-4o for produksjonssvar, gpt-4o-mini for utvikling). CometAPI gjør modellbytter enkle og sentraliserer kostnadene.

Multimodale pipelines

CometAPI tilbyr bilde-, lyd- og spesialiserte modeller. AnythingLLMs multimodale støtte (via leverandører) kombinert med CometAPIs modeller muliggjør bildebildebeskrivelser, multimodal oppsummering eller lydtranskripsjonsflyter gjennom det samme grensesnittet.

Konklusjon

CometAPI fortsetter å posisjonere seg som en gateway for flere modeller (500+ modeller, OpenAI-lignende API) — noe som gjør den til en naturlig partner for apper som AnythingLLM, som allerede støtter en Generic OpenAI-leverandør. På samme måte gjør AnythingLLMs Generic-leverandør og nyere konfigurasjonsalternativer det enkelt å koble til slike gateways. Denne konvergensen forenkler eksperimentering og migrering til produksjon i slutten av 2025.

Slik kommer du i gang med Comet API

CometAPI er en samlet API-plattform som aggregerer over 500 AI-modeller fra ledende leverandører — som OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere — i ett enkelt, utviklervennlig grensesnitt. Ved å tilby konsistent autentisering, forespørselsformatering og svarhåndtering forenkler CometAPI integreringen av AI-funksjoner i applikasjonene dine betydelig. Enten du bygger chatboter, bildegeneratorer, musikkkomponister eller datadrevne analysepipelines, lar CometAPI deg iterere raskere, kontrollere kostnader og forbli leverandøruavhengig — samtidig som du tar i bruk de nyeste gjennombruddene i AI-økosystemet.

For å komme i gang kan du utforske modellkapasitetene til CometAPI i Playground og lese API-guiden for detaljerte instruksjoner. Før tilgang må du sørge for at du har logget inn på CometAPI og skaffet deg API-nøkkelen. CometAPI tilbyr en pris som er langt lavere enn den offisielle prisen for å hjelpe deg med integrasjonen.

Klar til å sette i gang?→ Registrer deg for CometAPI i dag !

Hvis du vil vite mer om tips, guider og AI-nyheter, følg oss på VK, X og Discord!

Klar til å redusere AI-utviklingskostnadene med 20 %?

Kom i gang gratis på minutter. Gratis prøvekreditter inkludert. Ingen kredittkort nødvendig.

Les mer