Wren AI is your GenBI Agent, that you can query any database with natural language → get accurate SQL(Text-to-SQL), charts(Text-to-Charts) & AI-generated insights in seconds. ⚡️
new-asking-flow.mp4
Wren.BI.Reports.mov
| What you get | Why it matters | |
|---|---|---|
| Talk to Your Data | Ask in any language → precise SQL & answers | Slash the SQL learning curve |
| GenBI Insights | AI-written summaries, charts & reports | Decision-ready context in one click |
| Semantic Layer | MDL models encode schema, metrics, joins | Keeps LLM outputs accurate & governed |
| Embed via API | Generate queries & charts inside your apps (API Docs) | Build custom agents, SaaS features, chatbots (Streamlit Live Demo) |
Using Wren AI is super simple, you can set it up within 3 minutes, and start to interact with your data!
- Visit our Install in your local environment.
- Visit the Usage Guides to learn more about how to use Wren AI.
- Or just start with Wren AI Cloud our Managed Cloud Service. (OSS vs. Commercial Plans).
Você pode escolher a melhor nuvem para carregar os seus dados
🏹 Athena (Trino)
🔴 Redshift
📊 BigQuery
🦆 DuckDB
🐘 PostgreSQL
🐬 MySQL
💼 Microsoft SQL Server
🏠 ClickHouse
🏛 Oracle
⚡️ Trino
❄️ Snowflake
Wren AI suporta integração com vários Modelos de Linguagem de Grande Escala (LLMs), incluindo mas não limitado a:
🎯 OpenAI Models
☁️ Azure OpenAI Models
🔍 DeepSeek Models
🤖 Google AI Studio – Gemini Models
🔺 Vertex AI Models (Gemini + Anthropic)
🪨 Bedrock Models
👥 Anthropic API Models
⚡️ Groq Models
🐑 Ollama Models
🏢 Databricks Models
Confira exemplos de configuração aqui! 📝
Warning
O desempenho do Wren AI depende significativamente das capacidades do LLM que você escolher. Recomendamos fortemente usar o modelo mais poderoso disponível para resultados otimais. Usar modelos menos capazes pode levar a desempenho reduzido, tempos de resposta mais lentos ou saídas imprecisas.
Este módulo faz parte do projeto ScientifiCloud-GenAI, com foco na integração do WrenAI e dos serviços complementares wren-auth e nginx para ambientes de produção.
- Instale o wren-launcher:
Para subir os containers base do WrenAI, execute o comando abaixo:
curl -L https://github.com/Canner/WrenAI/releases/latest/download/wren-launcher-linux.tar.gz | tar -xz && ./wren-launcher-linuxApós a instalação, adicione sua API_KEY e selecione o modelo gpt-4.1 quando solicitado.
- Clone o repositório do projeto atual:
git clone https://github.com/s-c-ai/WrenAI
cd WrenAI/docker- Configure as variáveis de ambiente no diretório docker:
API_KEY=coloque_sua_chave_aqui
CLIENT_ID=coloque_seu_client_id_aqui
CLIENT_SECRET=coloque_seu_client_secret_aqui- Inicie o docker compose sem acionar o build
docker compose -f ./docker-compose.yaml up -d
Este comando subirá todos os containers, sem fazer qualquer alteração nos containers já criados pelo wren-launcher.
Warning
Este repositório está atualizado de acordo com a versão 0.28.0 do repositório Canner/WrenAI, portanto se encontra com alguns bugs na construção das imagens dos serviços por meio do docker-compose. A solução encontrada foi utilizar o wren-launcher para criar os containers. Para o desenvolvimento de novas features ou updates, é interessante aplicar as modificações sem fazer um novo build, somente parando os containers e subindo-os novamente. Caso seja necessário fazer alguma mudança muito relevante, evite refazer as imagens dos serviços que não sejam o wren-auth ou o nginx.
- Verifique se todos os containers subiram corretamente por meio do comando
docker ps
E verifique a porta do localhost e a porta de destino.
docker compose logs <nome do container> -f
docker compose down
docker compose up -d --force-recreate nginx wren-auth
|
Luciano Kalatalo |
Richard Wallan |
Nor Mustafa |
Letícia Brito |
Pedro Henrique |
Feito com ❤️ pela comunidade Wren AI ✨


