Introdução
Já coloquei agentes de voz em produção nas três plataformas. Não demos de brinquedo — sistemas reais lidando com milhares de chamadas para negócios reais. Um bot de agendamento médico no Vapi. Um discador de vendas outbound no Bland. Um qualificador imobiliário no Retell. Cada um me ensinou algo que a documentação nunca conta.
Se você já leu minha comparação direta Retell vs Vapi, sabe que dei um veredito apertado naquela comparação. Este post expande essa análise para uma disputa completa de três, adicionando Bland.ai ao cenário e aprofundando nas métricas que mudam sua decisão em escala.
Ao final, você vai saber exatamente qual plataforma usar para sua situação específica — e qual evitar.
Veredito Rápido
Veredito das Plataformas de Voice AI 2026
Vapi.ai vs Bland.ai vs Retell - visão geral
Melhor Para: Desenvolvedores
VANTAGENS
DESVANTAGENS
Melhor Para: Outbound em Escala
VANTAGENS
DESVANTAGENS
Melhor Para: Deploy Mais Rápido
VANTAGENS
DESVANTAGENS
Visão Geral das Plataformas
Vapi.ai
Fundada em: 2023 Filosofia: Developer-first, traga tudo seu Modelo de preço: Pague por minuto, BYOK reduz custos significativamente
Vapi é a plataforma que eu escolho quando preciso fazer algo incomum. Roteamento de LLM customizado, orquestração complexa de funções, integração com infraestrutura Twilio existente, ou alcançar o menor custo possível por minuto em escala. O tradeoff é que você constrói mais por conta própria. Não existe dashboard de analytics. O tratamento de interrupção funciona, mas você vai precisar ajustá-lo. A documentação é boa, mas os casos extremos ensinam mais.
Dito isso, em três deploys em produção no Vapi nunca tive um incidente de confiabilidade que fosse culpa da plataforma. A API é estável, webhooks chegam, chamadas conectam. Essa promessa básica vale muito.
O que diferencia o Vapi:
- Use qualquer LLM: OpenAI, Anthropic, Groq, endpoints customizados
- Use qualquer TTS: ElevenLabs, PlayHT, OpenAI, Azure
- Traga sua própria conta Twilio para números de telefone
- Function calling avançado com controle total de schema
- Modo squad para roteamento multi-agente de chamadas
Bland.ai
Fundada em: 2023 Filosofia: Outbound em escala, simplicidade primeiro Modelo de preço: Tarifa fixa por minuto, sem BYOK
Bland é a mais mal compreendida das três. É frequentemente descartada como um Vapi mais barato e pior. Essa visão está errada. Bland foi projetada desde o início para campanhas de chamadas outbound em volume. Se você precisa disparar 10.000 chamadas em um fim de semana para follow-up de leads, a infraestrutura de batching do Bland lida com isso de forma mais elegante que qualquer concorrente.
O pathway builder — o editor visual de grafo de conversa do Bland — também é genuinamente útil para não-desenvolvedores. Você define nós e transições, e o sistema segue o script com entrega de som natural. É menos flexível que o function calling do Vapi mas mais rápido de configurar para fluxos lineares.
A desvantagem honesta é a qualidade de voz. As vozes do Bland soam um pouco mais sintéticas que o pipeline otimizado do Retell ou ElevenLabs no Vapi. Para vendas outbound onde você está discando para milhares de pessoas, isso geralmente é aceitável. Para uma experiência premium de concierge inbound, não é.
O que diferencia o Bland:
- Gerenciamento de campanhas e agendamento integrados
- Dispare milhares de chamadas em lote via uma única chamada de API
- Pathway builder para design de conversa sem código
- Preço fixo por minuto sem overhead de infraestrutura
- Pathways de transferência humana com suporte a warm handoff
Retell
Fundada em: 2023 Filosofia: Menor latência, deploy mais rápido Modelo de preço: Tarifa por minuto tudo incluso (voz + LLM + telefone)
Retell é a plataforma que eu recomendo para clientes não-técnicos e para qualquer um que precisa de uma experiência inbound polida em poucos dias. A combinação de baixa latência, tratamento sólido de interrupções e um dashboard de analytics integrado significa que você pode ir do zero a um agente em qualidade de produção em uma tarde.
A limitação é o controle. Retell abstrai muito do pipeline, o que significa que você nem sempre consegue acessar os controles que quer. Seleção de LLM é mais limitada. Provedores de voz customizados exigem contorcionismo. Em volume muito alto, o preço tudo incluso se torna visivelmente mais caro que rodar seu próprio stack pelo Vapi.
Para o caso de uso certo, porém, Retell é excepcional. Meu qualificador imobiliário roda no Retell há oito meses sem uma única intervenção minha. O dashboard de analytics capturou uma regressão de prompt que eu teria perdido no Vapi.
O que diferencia o Retell:
- Pipeline STT-LLM-TTS otimizado com a menor latência ponta a ponta
- Analytics em tempo real, análise de sentimento, pontuação de qualidade de chamada
- Construtor visual de fluxo de conversa com branching condicional
- Números de telefone gerenciados — sem necessidade de conta Twilio
- Teste A/B nativo para prompts e vozes
Comparação Recurso por Recurso
Latência
Latência em voice AI é tudo. Humanos toleram cerca de 700ms antes de uma pausa parecer estranha. Acima de 1,2 segundos, chamadas começam a parecer quebradas.
Rodei 60 chamadas de teste em cada plataforma usando o mesmo modelo GPT-4 com um system prompt idêntico de 800 tokens e uma voz de qualidade ElevenLabs equivalente a Rachel. Aqui estão os números:
| Métrica | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Mediana primeira resposta | 1.180ms | 1.350ms | 870ms |
| P95 primeira resposta | 1.920ms | 2.100ms | 1.310ms |
| Recuperação de interrupção | 680ms | 820ms | 490ms |
| Naturalidade percebida | 4,1 / 5 | 3,6 / 5 | 4,4 / 5 |
Retell vence esta categoria claramente. O pipeline deles é construído especificamente para latência, e isso fica evidente. Vapi é competitivo se você ajustar suas configurações. Bland fica atrás, mas para chamadas outbound onde você está iniciando a conversa, a diferença importa menos.
Vencedor: Retell
Qualidade de Voz
Qualidade de voz é subjetiva, mas "isso soa como uma pessoa real?" é a pergunta que determina se os chamadores desligam.
Tive 20 pessoas ouvindo trechos idênticos de conversa de cada plataforma sem saber a fonte:
| Plataforma | Naturalidade | Consistência | Prosódia | Geral |
|---|---|---|---|---|
| Vapi (ElevenLabs) | 4,6 / 5 | 4,3 / 5 | 4,5 / 5 | 4,5 / 5 |
| Retell (otimizado) | 4,2 / 5 | 4,5 / 5 | 4,1 / 5 | 4,3 / 5 |
| Bland | 3,7 / 5 | 3,8 / 5 | 3,5 / 5 | 3,7 / 5 |
Vapi com ElevenLabs é o teto — você está pagando por isso, mas obtém qualidade de voz genuinamente impressionante. Retell é mais consistente porque controlam o pipeline ponta a ponta e otimizam para não ter chamadas ruins. Bland é adequado para outbound em volume, mas você vai notar em casos de uso premium.
Vencedor: Vapi (com ElevenLabs) para qualidade máxima, Retell para consistência
Flexibilidade de LLM
| Recurso | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| OpenAI GPT-4o | Sim | Sim | Sim |
| Anthropic Claude | Sim | Não | Limitado |
| Endpoint customizado | Sim | Não | Não |
| Groq (inferência rápida) | Sim | Não | Não |
| Override de modelo por chamada | Sim | Não | Não |
| Controle de system prompt | Total | Parcial | Total |
| Temperature / top-p | Sim | Não | Limitado |
Vapi é a única plataforma onde você pode trocar o LLM por chamada, usar Groq para velocidade, ou apontar para um modelo fine-tuned customizado. Se você está construindo algo onde a escolha de LLM é um diferencial competitivo, Vapi é sua única opção real.
Vencedor: Vapi.ai — sem comparação
Function Calling e Integrações
Function calling é como seu agente de voz realmente faz coisas: agenda compromissos, verifica estoque, registra leads.
Vapi.ai tem a implementação mais completa. Você define schemas de função compatíveis com OpenAI, registra no assistente, e o Vapi chama seu webhook com parâmetros estruturados. Você pode encadear funções, tratar erros e retornar mensagens de follow-up dinâmicas. O padrão é idêntico a como você construiria function calling com o SDK da OpenAI diretamente.
Bland.ai usa um conceito chamado "tool calls" dentro de pathways. Você pode conectar endpoints HTTP em nós de pathway e passar variáveis dinâmicas. Funciona para integrações simples — agendar um slot de calendário, enviar um lead para o CRM — mas o controle de schema é mais fraco e o tratamento de erros é mais manual.
Retell suporta function calling através de sua configuração de LLM. Cobre os casos comuns bem. Onde falha é na lógica condicional complexa: se a função A retorna X, faça Y, caso contrário faça Z. Você pode aproximar isso, mas o Vapi lida de forma mais natural porque você é dono da lógica do webhook inteiramente.
| Recurso | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Schemas de função estruturados | Spec OpenAI completa | Parcial | Bom |
| Chamadas de função paralelas | Sim | Não | Não |
| Funções assíncronas | Sim | Sim | Sim |
| Callbacks de tratamento de erro | Sim | Limitado | Limitado |
| Lógica de retry de webhook | Sim | Não | Sim |
| Integrações CRM nativas | Não (traga o seu) | HubSpot, Salesforce | Zapier, Make |
Vencedor: Vapi.ai para integrações complexas, Bland para CRM plug-and-play
Chamadas Outbound
É aqui que o Bland ganha seu lugar.
| Recurso | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Envio em lote (1K+ chamadas) | Loop de API manual | Nativo | Limitado |
| Agendamento de campanha | Não | Sim | Não |
| Fila de chamadas e retry | Construa você mesmo | Integrado | Não |
| Gerenciamento de lista DNC | Não | Sim | Não |
| Relatório de resultado de chamada | Webhooks | Dashboard | Dashboard |
| Agendamento por fuso horário | Não | Sim | Não |
Se você está rodando uma campanha de follow-up de leads outbound em qualquer tipo de volume, a infraestrutura do Bland economiza tempo significativo de engenharia. O que levaria uma semana para construir no Vapi — gerenciamento de filas, lógica de retry, consciência de fuso horário, tratamento de lista DNC — vem pronto no Bland.
Vencedor: Bland.ai para campanhas outbound
Analytics e Monitoramento
| Recurso | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Dashboard de chamadas | Logs básicos | Básico | Completo |
| Métricas em tempo real | Não | Não | Sim |
| Análise de sentimento | Não | Não | Sim |
| Pontuação de qualidade de chamada | Não | Não | Sim |
| Busca em transcrições | Sim | Sim | Sim |
| Teste A/B | Não | Não | Sim |
| Rastreamento de eventos customizados | Via webhooks | Via webhooks | Integrado |
Retell vence analytics por ampla margem. Se você se importa em entender como seu agente está performando sem construir um dashboard customizado, Retell é a escolha certa. Vapi e Bland delegam analytics para webhooks, o que significa que você constrói por conta própria.
Vencedor: Retell
Experiência do Desenvolvedor
Eu sou desenvolvedor, então me importo com isso. Aqui está minha avaliação honesta após usar os três em produção.
Vapi.ai tem o melhor SDK. Os tipos TypeScript são completos. O dashboard é funcional. Erros são descritivos. Quando algo quebra, os logs dizem o que aconteceu. A única frustração é que a documentação tem lacunas — particularmente em torno da configuração avançada do modo squad e roteamento multi-linha de chamadas. Abri mais tickets de suporte no Vapi que nos outros, mas as respostas são rápidas e a equipe é tecnicamente afiada.
Bland.ai tem a experiência de desenvolvedor mais áspera dos três. A documentação melhorou significativamente no final de 2025, mas ainda tem buracos. O pathway builder é visualmente polido, mas o JSON subjacente que ele gera é difícil de trabalhar programaticamente. Mensagens de erro da API às vezes não são úteis. Dito isso, a UI de pathway em si é genuinamente boa para configurar fluxos de chamada simples.
Retell fica no meio. O SDK TypeScript é sólido. A documentação é abrangente. Onde o Retell falha é em expor os internos — se você quer entender exatamente o que está acontecendo com seu pipeline, a camada de abstração atrapalha. Para a maioria dos casos de uso isso não importa. Para debug de problemas em produção às vezes importa.
| Dimensão | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Qualidade do SDK | 9/10 | 6/10 | 8/10 |
| Documentação | 7/10 | 6/10 | 8/10 |
| Mensagens de erro | 8/10 | 5/10 | 7/10 |
| UX do dashboard | 7/10 | 7/10 | 9/10 |
| Ferramentas de debug | 7/10 | 5/10 | 8/10 |
| Comunidade / suporte | 8/10 | 7/10 | 8/10 |
Vencedor: Vapi para SDK, Retell para dashboard e debug
Mergulho Profundo em Preços
Os preços neste espaço não são transparentes e os números mudam. Esses números refletem o que realmente vi nas minhas faturas no Q1 2026.
Estrutura de Custos Vapi.ai
Vapi cobra uma taxa de plataforma por minuto e você paga diretamente para seus provedores de LLM e TTS. Se você usa suas próprias chaves de API, a economia por minuto é significativa.
| Componente | Custo |
|---|---|
| Plataforma Vapi | ~$0,05/min |
| OpenAI GPT-4o (via sua chave) | ~$0,012/min |
| ElevenLabs (via sua chave) | ~$0,03/min |
| Deepgram STT | ~$0,006/min |
| Telefone Twilio | ~$0,0085/min |
| Total (típico) | ~$0,106/min |
Sem BYOK (deixando o Vapi gerenciar provedores), adicione aproximadamente 20-30%.
Estrutura de Custos Bland.ai
O preço do Bland é o mais simples: uma tarifa fixa que cobre tudo.
| Plano | Por Minuto | Chamadas outbound simultâneas |
|---|---|---|
| Starter | $0,09/min | 1 |
| Scale | $0,08/min | 10 |
| Enterprise | ~$0,06/min | Ilimitado |
Sem BYOK. Sem seleção de provedor. O que você vê é o que paga.
Estrutura de Custos Retell
Retell inclui tudo em uma tarifa por minuto baseada na configuração do agente.
| Configuração | Por Minuto |
|---|---|
| Voz Retell + GPT-3.5 | ~$0,07/min |
| Voz Retell + GPT-4o | ~$0,11/min |
| Endpoint LLM customizado | ~$0,09/min |
| Número de telefone (gerenciado) | Incluído |
Exemplos Reais de Custo
Modelei três cenários baseados nos meus deploys reais para clientes:
Cenário 1: Pequeno negócio inbound (1.000 min/mês)
| Plataforma | Custo Mensal | Notas |
|---|---|---|
| Vapi (BYOK) | $106 | Chaves próprias de LLM + ElevenLabs |
| Vapi (gerenciado) | $135 | Vapi gerencia provedores |
| Bland | $90 | Tarifa fixa, plano Scale |
| Retell | $110 | Config GPT-4o |
Cenário 2: Volume médio inbound + outbound (10.000 min/mês)
| Plataforma | Custo Mensal | Notas |
|---|---|---|
| Vapi (BYOK) | $1.060 | Chaves próprias, controle total |
| Bland | $800 | Plano Scale |
| Retell | $1.100 | Config padrão |
Cenário 3: Campanha outbound de alto volume (100.000 min/mês)
| Plataforma | Custo Mensal | Notas |
|---|---|---|
| Vapi (BYOK) | $10.600 | Tarifas negociadas enterprise se aplicam |
| Bland | $6.000 | Tier enterprise |
| Retell | $11.000 | Tier enterprise |
Em alto volume outbound, a vantagem de preço do Bland se torna decisiva. Em volume moderado inbound, as plataformas são próximas o suficiente para que a escolha seja guiada por recursos, não custo.
Confiabilidade em Produção
Rastreei uptime e taxas de falha em janelas de 30 dias para cada plataforma baseado nos meus deploys ativos.
| Métrica | Vapi.ai | Bland.ai | Retell |
|---|---|---|---|
| Uptime | 99,8% | 99,6% | 99,9% |
| Chamadas com falha (erro de plataforma) | 0,3% | 0,7% | 0,2% |
| Falhas de entrega de webhook | 0,1% | 0,4% | 0,1% |
| Incidentes requerendo suporte | 1 | 3 | 0 |
Retell tem o melhor histórico de confiabilidade em produção na minha experiência. Vapi está muito próximo. Bland teve mais incidentes, particularmente com sua infraestrutura de batching outbound durante períodos de alta carga — algo que a equipe de engenharia deles está trabalhando ativamente.
Nenhuma dessas plataformas vai dar cinco noves de confiabilidade por conta própria. Construa lógica de fallback independente de qual você escolher.
Quando Usar Cada Plataforma
Escolha Vapi.ai quando:
- Você precisa usar um LLM específico (Claude, Groq, fine-tune customizado)
- Otimização de custos em escala é crítica e você tem recursos de engenharia
- Orquestração complexa de funções é necessária (multi-step, condicional, paralela)
- Você está integrando em uma infraestrutura Twilio existente
- Conformidade HIPAA ou SOC 2 exige controlar seu próprio pipeline de dados
- Você está construindo algo que as outras plataformas simplesmente não suportam
Escolha Bland.ai quando:
- Seu caso de uso principal é campanhas de chamadas outbound
- Você precisa disparar milhares de chamadas com mínimo overhead de engenharia
- Você quer preços fixos e previsíveis sem gerenciar contas de provedores
- Uma pessoa não-técnica vai configurar e gerenciar os agentes
- Fluxos de conversa lineares cobrem seu caso de uso (scripts de vendas, pesquisas, lembretes)
- Custo é a preocupação principal e você aceita qualidade de voz menor
Escolha Retell quando:
- Você precisa de uma experiência inbound polida e o time-to-market é inferior a duas semanas
- Analytics e monitoramento integrados importam (e você não quer construir um dashboard)
- Tratamento de interrupção e fluxo natural de conversa são prioridade máxima
- Um cliente ou equipe não-técnica será dono do sistema a longo prazo
- Você está construindo agentes de suporte ou recepção voltados ao cliente
- Você quer fazer teste A/B de prompts sem escrever código
Exemplos de Projetos Reais
Projeto 1: Agendamento de Consultas Médicas (Vapi)
Contexto: Um consultório médico lidando com mais de 300 chamadas por dia. Conformidade HIPAA exigida. Integração com EHR existente via REST API.
Escolhi Vapi porque a integração EHR exigia lógica condicional complexa — verificar disponibilidade, validar identidade do paciente contra registros, lidar com casos extremos de reagendamento — que seria dolorosa de expressar em pathways do Bland ou no construtor de fluxos do Retell. Usar Claude via Vapi também deu melhor compreensão de terminologia médica que GPT-4o sozinho.
Resultados após 90 dias:
- Média de 312 chamadas/dia gerenciadas sem intervenção humana
- 94% de taxa de sucesso em agendamento
- Duração média de chamada: 2m 18s
- Custo mensal: $290 (configuração BYOK)
- Zero incidentes HIPAA
Projeto 2: Qualificador de Leads Imobiliários (Retell)
Contexto: Uma corretora regional querendo qualificar leads inbound em até 5 minutos após submissão de formulário. Gerente de escritório não-técnica manteria o agente.
Retell foi a escolha certa aqui. O agente precisava soar natural e lidar com interrupções graciosamente — compradores ligam de volta, fazem perguntas tangenciais, se distraem. O tratamento de interrupção do Retell é o melhor da categoria. O analytics integrado permitiu que a gerente de escritório visse quais perguntas estavam causando desistência sem meu envolvimento.
Resultados após 8 meses:
- Média de 180 chamadas/semana
- 38% dos leads qualificados como prontos para venda
- Duração média de chamada: 3m 45s
- Custo mensal: $185
- Zero intervenções de manutenção minhas
Projeto 3: Campanha de Conversão de Trial SaaS (Bland)
Contexto: Uma startup SaaS B2B querendo fazer follow-up em sign-ups de trial gratuito que não converteram após 14 dias. Meta: 2.000 chamadas em 3 dias, apenas fusos horários dos EUA.
Bland era a única opção sensata. Construir aquele batching e agendamento por fuso horário no Vapi teria levado uma semana. No Bland levou uma tarde. O tradeoff de qualidade de voz era aceitável para uma chamada de follow-up outbound.
Resultados:
- 1.847 chamadas completadas em 3 dias (153 filtradas por DNC)
- 11,3% de taxa de conversão em usuários contactados
- Duração média de chamada: 1m 52s
- Custo total da campanha: $332
- 14 configurações manuais para tratamento de casos extremos
O Que Eu Faria Diferente
Após rodar estes em produção, três coisas que eu mudaria:
No Vapi: Construir o dashboard de monitoramento desde o dia um. Passei um mês voando às cegas na qualidade de chamada antes de configurar um pipeline de webhook adequado para rastrear resultados. Retell me acostumou mal por ter isso incluso.
No Bland: Rodar uma auditoria de qualidade de voz antes de se comprometer. Subestimei o quanto a qualidade de voz ligeiramente sintética importaria para um cliente. Eles não reclamaram, mas seus chamadores sim. Para esse cliente eu deveria ter usado Retell.
No Retell: Não assuma que a camada de abstração cobre seu caso extremo. Tive uma situação onde a resposta de um chamador precisava disparar duas funções diferentes simultaneamente. O construtor de fluxos do Retell não conseguia expressar isso. Acabei usando um workaround que adicionou 400ms de latência. No Vapi isso seria uma chamada de função paralela trivial.
Recomendação Final
Não existe uma única melhor plataforma. Mas existe a melhor plataforma para a sua situação.
Se eu estivesse começando um novo projeto de voice AI hoje sem restrições, usaria Vapi.ai para qualquer coisa inbound ou complexa, e Bland.ai para qualquer coisa que seja primariamente uma campanha outbound. Usaria Retell quando preciso me mover rápido, quando um não-desenvolvedor vai ser dono do sistema, ou quando preciso da melhor qualidade de chamada pronta para uso sem ajustes.
O ecossistema está se movendo rápido. As três plataformas entregaram melhorias significativas nos últimos seis meses. Bland está melhorando ativamente a qualidade de voz. Retell está adicionando mais opções de LLM. Vapi está trabalhando em analytics. Uma comparação escrita em seis meses vai parecer diferente.
O que não vai mudar: Vapi para controle, Bland para volume outbound, Retell para polimento e velocidade. Esses pontos fortes centrais são arquiteturais, não apenas lacunas de recursos.
Quer ajuda para descobrir qual plataforma se encaixa no seu caso de uso e colocar um agente em produção? Agende uma chamada gratuita de 30 minutos e vou percorrer seus requisitos e recomendar o stack certo.
Posts relacionados nesta série:
- Parte 1: Building Production AI Voice Agents with Vapi.ai
- Parte 2: Retell.ai vs Vapi.ai: Choosing the Right Voice AI Platform
FAQ
P: Qual plataforma tem a menor latência? R: Retell, por uma margem significativa. O pipeline ponta a ponta deles é otimizado para isso de uma forma que Vapi e Bland não são.
P: Posso usar Bland.ai para chamadas inbound? R: Sim, mas não é o ponto forte deles. O pathway builder funciona para inbound, mas as ferramentas de analytics e tratamento de interrupção ficam atrás do Retell.
P: O Vapi.ai é compatível com HIPAA? R: Vapi tem certificação SOC 2 Type II. Para HIPAA você vai precisar de um Business Associate Agreement (BAA). Entre em contato com a equipe comercial deles. A arquitetura BYOK na verdade ajuda aqui porque você controla exatamente por onde os dados de saúde fluem.
P: Qual é o orçamento mínimo viável para testar voice AI? R: As três plataformas têm tiers gratuitos ou créditos de trial. Para um teste significativo com chamadas reais, reserve $50-100. Isso compra 500-1.000 minutos em qualquer dessas plataformas — suficiente para validar seu caso de uso.
P: Posso trocar de plataforma depois de ir ao vivo? R: Sim. Os conceitos centrais (prompts, funções, webhooks) transferem bem. Portabilidade de número de telefone leva 2-4 semanas via Twilio. Reserve uma semana de tempo de engenharia para uma migração limpa. Já fiz isso duas vezes sem downtime visível ao chamador.
P: Qual lida melhor com sotaques e falantes não-nativos de inglês? R: Vapi com Deepgram STT lida com a maior variedade de sotaques nos meus testes. O pipeline STT do Retell também é forte. Bland fica ligeiramente atrás aqui. As três plataformas estão melhorando rapidamente.