Browse Source
Co-authored-by: Lucas <[email protected]> Co-authored-by: Sebastián Ramírez <[email protected]>pull/3724/head
committed by
GitHub
1 changed files with 394 additions and 0 deletions
@ -0,0 +1,394 @@ |
|||
# Concorrência e async / await |
|||
|
|||
Detalhes sobre a sintaxe `async def` para *funções de operação de rota* e alguns conceitos de código assíncrono, concorrência e paralelismo. |
|||
|
|||
## Com pressa? |
|||
|
|||
<abbr title="muito longo; não li"><strong>TL;DR:</strong></abbr> |
|||
|
|||
Se você estiver utilizando bibliotecas de terceiros que dizem para você chamar as funções com `await`, como: |
|||
|
|||
```Python |
|||
results = await some_library() |
|||
``` |
|||
|
|||
Então, declare sua *função de operação de rota* com `async def` como: |
|||
|
|||
```Python hl_lines="2" |
|||
@app.get('/') |
|||
async def read_results(): |
|||
results = await some_library() |
|||
return results |
|||
``` |
|||
|
|||
!!! note |
|||
Você só pode usar `await` dentro de funções criadas com `async def`. |
|||
|
|||
--- |
|||
|
|||
Se você está usando biblioteca de terceiros que se comunica com alguma coisa (um banco de dados, uma API, sistema de arquivos etc) e não tem suporte para utilizar `await` (esse é atualmente o caso para a maioria das bibliotecas de banco de dados), então declare suas *funções de operação de rota* normalmente, com apenas `def`, como: |
|||
|
|||
```Python hl_lines="2" |
|||
@app.get('/') |
|||
def results(): |
|||
results = some_library() |
|||
return results |
|||
``` |
|||
|
|||
--- |
|||
|
|||
Se sua aplicação (de alguma forma) não tem que se comunicar com nada mais e tem que esperar que o respondam, use `async def`. |
|||
|
|||
--- |
|||
|
|||
Se você simplesmente não sabe, use apenas `def`. |
|||
|
|||
--- |
|||
|
|||
**Note**: Você pode misturar `def` e `async def` nas suas *funções de operação de rota* tanto quanto necessário e definir cada função usando a melhor opção para você. FastAPI irá fazer a coisa certa com elas. |
|||
|
|||
De qualquer forma, em ambos os casos acima, FastAPI irá trabalhar assincronamente e ser extremamente rápido. |
|||
|
|||
Seguindo os passos acima, ele será capaz de fazer algumas otimizações de performance. |
|||
|
|||
## Detalhes Técnicos |
|||
|
|||
Versões modernas de Python tem suporte para **"código assíncrono"** usando algo chamado **"corrotinas"**, com sintaxe **`async` e `await`**. |
|||
|
|||
Vamos ver aquela frase por partes na seção abaixo: |
|||
|
|||
* **Código assíncrono** |
|||
* **`async` e `await`** |
|||
* **Corrotinas** |
|||
|
|||
## Código assíncrono |
|||
|
|||
Código assíncrono apenas significa que a linguagem 💬 tem um jeito de dizer para o computador / programa 🤖 que em certo ponto, ele 🤖 terá que esperar por *algo* para finalizar em outro lugar. Vamos dizer que esse *algo* seja chamado "arquivo lento" 📝. |
|||
|
|||
Então, durante esse tempo, o computador pode ir e fazer outro trabalho, enquanto o "arquivo lento" 📝 termine. |
|||
|
|||
Então o computador / programa 🤖 irá voltar toda hora que tiver uma chance porquê ele ainda está esperando o "arquivo lento", ou ele 🤖 nunca irá terminar todo o trabalho que tem até esse ponto. E ele 🤖 irá ver se alguma das tarefas que estava esperando já terminaram, fazendo o que quer que tinham que fazer. |
|||
|
|||
Depois, ele 🤖 pega a primeira tarefa para finalizar (vamos dizer, nosso "arquivo lento" 📝) e continua o que ele tem que fazer com isso. |
|||
|
|||
Esse "esperar por algo" normalmente se refere a operações <abbr title="Entrada e Saída">I/O</abbr> que são relativamente "lentas" (comparadas a velocidade do processador e da memória RAM), como esperar por: |
|||
|
|||
* dados do cliente para serem enviados através da rede |
|||
* dados enviados pelo seu programa para serem recebidos pelo clente através da rede |
|||
* conteúdo de um arquivo no disco pra ser lido pelo sistema e entregar ao seu programa |
|||
* conteúdo que seu programa deu ao sistema para ser escrito no disco |
|||
* uma operação remota API |
|||
* uma operação no banco de dados para finalizar |
|||
* uma solicitação no banco de dados esperando o retorno do resultado |
|||
* etc. |
|||
|
|||
Enquanto o tempo de execução é consumido mais pela espera das operações <abbr title="Entrada e Saída">I/O</abbr>, essas operações são chamadas de operações "limitadas por I/O". |
|||
|
|||
Isso é chamado de "assíncrono" porquê o computador / programa não tem que ser "sincronizado" com a tarefa lenta, esperando pelo exato momento que a tarefa finalize, enquanto não faz nada, para ser capaz de pegar o resultado da tarefa e dar continuidade ao trabalho. |
|||
|
|||
Ao invés disso, sendo um sistema "assíncrono", uma vez finalizada, a tarefa pode esperar um pouco (alguns microssegundos) para que o computador / programa finalize o que quer que esteja fazendo,e então volte para pegar o resultado e continue trabalhando com ele. |
|||
|
|||
Para "síncrono" (contrário de "assíncrono") também é utilizado o termo "sequencial", porquê o computador / programa segue todos os passos, na sequência, antes de trocar para uma tarefa diferente, mesmo se alguns passos envolvam esperar. |
|||
|
|||
### Concorrência e hambúrgueres |
|||
|
|||
Essa idéia de código **assíncrono** descrito acima é algo às vezes chamado de **"concorrência"**. E é diferente de **"paralelismo"**. |
|||
|
|||
**Concorrência** e **paralelismo** ambos são relacionados a "diferentes coisas acontecendo mais ou menos ao mesmo tempo". |
|||
|
|||
Mas os detalhes entre *concorrência* e *paralelismo* são bem diferentes. |
|||
|
|||
Para ver essa diferença, imagine a seguinte história sobre hambúrgueres: |
|||
|
|||
### Hambúrgueres concorrentes |
|||
|
|||
Você vai com seu _crush_ :heart_eyes: na lanchonete, fica na fila enquanto o caixa pega os pedidos das pessoas na sua frente. |
|||
|
|||
Então chega a sua vez, você pede dois saborosos hambúrgueres para você e seu _crush_ :heart_eyes:. |
|||
|
|||
Você paga. |
|||
|
|||
O caixa diz alguma coisa para o cara na cozinha para que ele tenha que preparar seus hambúrgueres (mesmo embora ele esteja preparando os lanches dos outros clientes). |
|||
|
|||
O caixa te entrega seu número de chamada. |
|||
|
|||
Enquanto você espera, você vai com seu _crush_ :heart_eyes: e pega uma mesa, senta e conversa com seu _crush_ :heart_eyes: por um bom tempo (como seus hambúrgueres são muito saborosos, leva um tempo para serem preparados). |
|||
|
|||
Enquanto você está sentado na mesa com seu _crush_ :heart_eyes:, esperando os hambúrgueres, você pode gastar o tempo admirando como lindo, maravilhoso e esperto é seu _crush_ :heart_eyes:. |
|||
|
|||
Enquanto espera e conversa com seu _crush_ :heart_eyes:, de tempos em tempos, você verifica o número de chamada exibido no balcão para ver se já é sua vez. |
|||
|
|||
Então a certo ponto, é finalmente sua vez. Você vai no balcão, pega seus hambúrgueres e volta para a mesa. |
|||
|
|||
Você e seu _crush_ :heart_eyes: comem os hambúrgueres e aproveitam o tempo. |
|||
|
|||
--- |
|||
|
|||
Imagine que você seja o computador / programa nessa história. |
|||
|
|||
Enquanto você está na fila, tranquilo, esperando por sua vez, não está fazendo nada "produtivo". Mas a fila é rápida porquê o caixa só está pegando os pedidos, então está tudo bem. |
|||
|
|||
Então, quando é sua vez, você faz o trabalho "produtivo" de verdade, você processa o menu, decide o que quer, pega a escolha de seu _crush_ :heart_eyes:, paga, verifica se entregou o valor correto em dinheiro ou cartão de crédito, verifica se foi cobrado corretamente, verifica se seu pedido está correto etc. |
|||
|
|||
Mas então, embora você ainda não tenha os hambúrgueres, seu trabalho no caixa está "pausado", porquê você tem que esperar seus hambúrgueres estarem prontos. |
|||
|
|||
Mas enquanto você se afasta do balcão e senta na mesa com o número da sua chamada, você pode trocar sua atenção para seu _crush_ :heart_eyes:, e "trabalhar" nisso. Então você está novamente fazendo algo muito "produtivo", como flertar com seu _crush_ :heart_eyes:. |
|||
|
|||
Então o caixa diz que "seus hambúrgueres estão prontos" colocando seu número no balcão, mas você não corre que nem um maluco imediatamente quando o número exibido é o seu. Você sabe que ninguém irá roubar seus hambúrgueres porquê você tem o número de chamada, e os outros tem os números deles. |
|||
|
|||
Então você espera que seu _crush_ :heart_eyes: termine a história que estava contando (terminar o trabalho atual / tarefa sendo processada), sorri gentilmente e diz que você está indo buscar os hambúrgueres. |
|||
|
|||
Então você vai no balcão, para a tarefa inicial que agora está finalizada, pega os hambúrgueres, e leva para a mesa. Isso finaliza esse passo / tarefa da interação com o balcão. Agora é criada uma nova tarefa, "comer hambúrgueres", mas a tarefa anterior, "pegar os hambúrgueres" já está finalizada. |
|||
|
|||
### Hambúrgueres paralelos |
|||
|
|||
Você vai com seu _crush_ :heart_eyes: em uma lanchonete paralela. |
|||
|
|||
Você fica na fila enquanto alguns (vamos dizer 8) caixas pegam os pedidos das pessoas na sua frente. |
|||
|
|||
Todo mundo antes de você está esperando pelos hambúrgueres estarem prontos antes de deixar o caixa porquê cada um dos 8 caixas vai e prepara o hambúrguer antes de pegar o próximo pedido. |
|||
|
|||
Então é finalmente sua vez, e pede 2 hambúrgueres muito saborosos para você e seu _crush_ :heart_eyes:. |
|||
|
|||
Você paga. |
|||
|
|||
O caixa vai para a cozinha. |
|||
|
|||
Você espera, na frente do balcão, para que ninguém pegue seus hambúrgueres antes de você, já que não tem números de chamadas. |
|||
|
|||
Enquanto você e seu _crush_ :heart_eyes: estão ocupados não permitindo que ninguém passe a frente e pegue seus hambúrgueres assim que estiverem prontos, você não pode dar atenção ao seu _crush_ :heart_eyes:. |
|||
|
|||
Isso é trabalho "síncrono", você está "sincronizado" com o caixa / cozinheiro. Você tem que esperar e estar lá no exato momento que o caixa / cozinheiro terminar os hambúrgueres e dá-los a você, ou então, outro alguém pode pegá-los. |
|||
|
|||
Então seu caixa / cozinheiro finalmente volta com seus hambúrgueres, depois de um longo tempo esperando por eles em frente ao balcão. |
|||
|
|||
Você pega seus hambúrgueres e vai para a mesa com seu _crush_ :heart_eyes:. |
|||
|
|||
Vocês comem os hambúrgueres, e o trabalho está terminado. |
|||
|
|||
Não houve muita conversa ou flerte já que a maior parte do tempo foi gasto esperando os lanches na frente do balcão. |
|||
|
|||
--- |
|||
|
|||
Nesse cenário dos hambúrgueres paralelos, você é um computador / programa com dois processadores (você e seu _crush_ :heart_eyes:), ambos esperando e dedicando a atenção de estar "esperando no balcão" por um bom tempo. |
|||
|
|||
A lanchonete paralela tem 8 processadores (caixas / cozinheiros). Enquanto a lanchonete dos hambúrgueres concorrentes tinham apenas 2 (um caixa e um cozinheiro). |
|||
|
|||
Ainda assim, a última experiência não foi a melhor. |
|||
|
|||
--- |
|||
|
|||
Essa poderia ser a história paralela equivalente aos hambúrgueres. |
|||
|
|||
Para um exemplo "mais real", imagine um banco. |
|||
|
|||
Até recentemente, a maioria dos bancos tinha muitos caixas e uma grande fila. |
|||
|
|||
Todos os caixas fazendo todo o trabalho, um cliente após o outro. |
|||
|
|||
E você tinha que esperar na fila por um longo tempo ou poderia perder a vez. |
|||
|
|||
Você provavelmente não gostaria de levar seu _crush_ :heart_eyes: com você para um rolezinho no banco. |
|||
|
|||
### Conclusão dos hambúrgueres |
|||
|
|||
Nesse cenário dos "hambúrgueres com seu _crush_ :heart_eyes:", como tem muita espera, faz mais sentido ter um sistema concorrente. |
|||
|
|||
Esse é o caso da maioria das aplicações web. |
|||
|
|||
Geralmente são muitos usuários, e seu servidor está esperando pelas suas conexões não tão boas para enviar as requisições. |
|||
|
|||
E então esperando novamente pelas respostas voltarem. |
|||
|
|||
Essa "espera" é medida em microssegundos, e ainda assim, somando tudo, é um monte de espera no final. |
|||
|
|||
Por isso que faz muito mais sentido utilizar código assíncrono para APIs web. |
|||
|
|||
A maioria dos frameworks Python existentes mais populares (incluindo Flask e Django) foram criados antes que os novos recursos assíncronos existissem em Python. Então, os meios que eles podem ser colocados em produção para suportar execução paralela mais a forma antiga de execução assíncrona não são tão poderosos quanto as novas capacidades. |
|||
|
|||
Mesmo embora a especificação principal para web assíncrono em Python (ASGI) foi desenvolvida no Django, para adicionar suporte para WebSockets. |
|||
|
|||
Esse tipo de assincronicidade é o que fez NodeJS popular (embora NodeJS não seja paralelo) e que essa seja a força do Go como uma linguagem de programa. |
|||
|
|||
E esse é o mesmo nível de performance que você tem com o **FastAPI**. |
|||
|
|||
E como você pode ter paralelismo e sincronicidade ao mesmo tempo, você tem uma maior performance do que a maioria dos frameworks NodeJS testados e lado a lado com Go, que é uma linguagem compilada próxima ao C <a href="https://www.techempower.com/benchmarks/#section=data-r17&hw=ph&test=query&l=zijmkf-1" class="external-link" target="_blank">(tudo graças ao Starlette)</a>. |
|||
|
|||
### Concorrência é melhor que paralelismo? |
|||
|
|||
Não! Essa não é a moral da história. |
|||
|
|||
Concorrência é diferente de paralelismo. E é melhor em cenários **específicos** que envolvam um monte de espera. Por isso, geralmente é muito melhor do que paralelismo para desenvolvimento de aplicações web. Mas não para tudo. |
|||
|
|||
Então, para equilibrar tudo, imagine a seguinte historinha: |
|||
|
|||
> Você tem que limpar uma grande casa suja. |
|||
|
|||
*Sim, essa é toda a história*. |
|||
|
|||
--- |
|||
|
|||
Não há espera em lugar algum, apenas um monte de trabalho para ser feito, em múltiplos cômodos da casa. |
|||
|
|||
Você poderia ter chamadas como no exemplo dos hambúrgueres, primeiro a sala de estar, então a cozinha, mas você não está esperando por nada, apenas limpar e limpar, as chamadas não afetariam em nada. |
|||
|
|||
Levaria o mesmo tempo para finalizar com ou sem chamadas (concorrência) e você teria feito o mesmo tanto de trabalho. |
|||
|
|||
Mas nesse caso, se você trouxesse os 8 ex-caixas / cozinheiros / agora-faxineiros, e cada um deles (mais você) pudessem dividir a casa para limpá-la, vocês fariam toda a limpeza em **paralelo**, com a ajuda extra, e terminariam muito mais cedo. |
|||
|
|||
Nesse cenário, cada um dos faxineiros (incluindo você) poderia ser um processador, fazendo a sua parte do trabalho. |
|||
|
|||
E a maior parte do tempo de execução é tomada por trabalho (ao invés de ficar esperando), e o trabalho em um computador é feito pela <abbr title="Unidade de Processamento Central">CPU</abbr>, que podem gerar problemas que são chamados de "limite de CPU". |
|||
|
|||
--- |
|||
|
|||
Exemplos comuns de limite de CPU são coisas que exigem processamento matemático complexo. |
|||
|
|||
Por exemplo: |
|||
|
|||
* **Processamento de áudio** ou **imagem** |
|||
* **Visão do Computador**: uma imagem é composta por milhões de pixels, cada pixel tem 3 valores (cores, processamento que normalmente exige alguma computação em todos esses pixels ao mesmo tempo) |
|||
|
|||
* **Machine Learning**: Normalmente exige muita multiplicação de matrizes e vetores. Pense numa grande folha de papel com números e multiplicando todos eles juntos e ao mesmo tempo. |
|||
|
|||
* **Deep Learning**: Esse é um subcampo do Machine Learning, então o mesmo se aplica. A diferença é que não há apenas uma grande folha de papel com números para multiplicar, mas um grande conjunto de folhas de papel, e em muitos casos, você utiliza um processador especial para construir e/ou usar modelos. |
|||
|
|||
### Concorrência + Paralelismo: Web + Machine learning |
|||
|
|||
Com **FastAPI** você pode levar a vantagem da concorrência que é muito comum para desenvolvimento web (o mesmo atrativo de NodeJS). |
|||
|
|||
Mas você também pode explorar os benefícios do paralelismo e multiprocessamento (tendo múltiplos processadores rodando em paralelo) para trabalhos pesados que geram **limite de CPU** como aqueles em sistemas de Machine Learning. |
|||
|
|||
Isso, mais o simples fato que Python é a principal linguagem para **Data Science**, Machine Learning e especialmente Deep Learning, faz do FastAPI uma ótima escolha para APIs web e aplicações com Data Science / Machine Learning (entre muitas outras). |
|||
|
|||
Para ver como alcançar esse paralelismo em produção veja a seção sobre [Deployment](deployment.md){.internal-link target=_blank}. |
|||
|
|||
## `async` e `await` |
|||
|
|||
Versões modernas do Python tem um modo muito intuitivo para definir código assíncrono. Isso faz parecer normal o código "sequencial" e fazer o "esperar" para você nos momentos certos. |
|||
|
|||
Quando tem uma operação que exigirá espera antes de dar os resultados e tem suporte para esses recursos Python, você pode escrever assim: |
|||
|
|||
```Python |
|||
burgers = await get_burgers(2) |
|||
``` |
|||
|
|||
A chave aqui é o `await`. Ele diz ao Python que ele tem que esperar por `get_burgers(2)` para finalizar suas coisas antes de armazenar os resultados em `burgers`. Com isso, o Python saberá que ele pode ir e fazer outras coisas nesse meio tempo (como receber outra requisição). |
|||
|
|||
Para o `await` funcionar, tem que estar dentro de uma função que suporte essa assincronicidade. Para fazer isso, apenas declare a função com `async def`: |
|||
|
|||
```Python hl_lines="1" |
|||
async def get_burgers(number: int): |
|||
# Fazer alguma coisa assíncrona para criar os hambúrgueres |
|||
return burgers |
|||
``` |
|||
|
|||
...ao invés de `def`: |
|||
|
|||
```Python hl_lines="2" |
|||
# Isso não é assíncrono |
|||
def get_sequential_burgers(number: int): |
|||
# Faz alguma coisa sequencial para criar os hambúrgueres |
|||
return burgers |
|||
``` |
|||
|
|||
Com `async def`, o Python sabe que, dentro dessa função, tem que estar ciente das expressões `await`, e que isso pode "pausar" a execução dessa função, e poderá fazer outra coisa antes de voltar. |
|||
|
|||
Quando você quiser chamar uma função `async def`, você tem que "esperar". Então, isso não funcionará: |
|||
|
|||
```Python |
|||
# Isso não irá funcionar, porquê get_burgers foi definido com: async def |
|||
burgers = get_burgers(2) |
|||
``` |
|||
|
|||
--- |
|||
|
|||
Então, se você está usando uma biblioteca que diz que você pode chamá-la com `await`, você precisa criar as *funções de operação de rota* com `async def`, como em: |
|||
|
|||
```Python hl_lines="2 3" |
|||
@app.get('/burgers') |
|||
async def read_burgers(): |
|||
burgers = await get_burgers(2) |
|||
return burgers |
|||
``` |
|||
|
|||
### Mais detalhes técnicos |
|||
|
|||
Você deve ter observado que `await` pode ser usado somente dentro de funções definidas com `async def`. |
|||
|
|||
Mas ao mesmo tempo, funções definidas com `async def` tem que ser aguardadas. Então, funções com `async def` pdem ser chamadas somente dentro de funções definidas com `async def` também. |
|||
|
|||
Então, sobre o ovo e a galinha, como você chama a primeira função async? |
|||
|
|||
Se você estivar trabalhando com **FastAPI** não terá que se preocupar com isso, porquê essa "primeira" função será a sua *função de operação de rota*, e o FastAPI saberá como fazer a coisa certa. |
|||
|
|||
Mas se você quiser usar `async` / `await` sem FastAPI, <a href="https://docs.python.org/3/library/asyncio-task.html#coroutine" class="external-link" target="_blank">verifique a documentação oficial Python</a>. |
|||
|
|||
### Outras formas de código assíncrono |
|||
|
|||
Esse estilo de usar `async` e `await` é relativamente novo na linguagem. |
|||
|
|||
Mas ele faz o trabalho com código assíncrono muito mais fácil. |
|||
|
|||
Essa mesma sintaxe (ou quase a mesma) foi também incluída recentemente em versões modernas do JavaScript (no navegador e NodeJS). |
|||
|
|||
Mas antes disso, controlar código assíncrono era bem mais complexo e difícil. |
|||
|
|||
Nas versões anteriores do Python, você poderia utilizar threads ou <a href="http://www.gevent.org/" class="external-link" target="_blank">Gevent</a>. Mas o código é um pouco mais complexo de entender, debugar, e pensar sobre. |
|||
|
|||
Nas versões anteriores do NodeJS / Navegador JavaScript, você poderia utilizar "callbacks". O que leva ao <a href="http://callbackhell.com/" class="external-link" target="_blank">inferno do callback</a>. |
|||
|
|||
## Corrotinas |
|||
|
|||
**Corrotina** é apenas um jeito bonitinho para a coisa que é retornada de uma função `async def`. O Python sabe que é uma função que pode começar e terminar em algum ponto, mas que pode ser pausada internamente também, sempre que tiver um `await` dentro dela. |
|||
|
|||
Mas toda essa funcionalidade de código assíncrono com `async` e `await` é muitas vezes resumida como "corrotina". É comparável ao principal recurso chave do Go, a "Gorotina". |
|||
|
|||
## Conclusão |
|||
|
|||
Vamos ver a mesma frase com o conteúdo cima: |
|||
|
|||
> Versões modernas do Python tem suporte para **"código assíncrono"** usando algo chamado **"corrotinas"**, com sintaxe **`async` e `await`**. |
|||
|
|||
Isso pode fazer mais sentido agora. |
|||
|
|||
Tudo isso é o que deixa o FastAPI poderoso (através do Starlette) e que o faz ter uma performance impressionante. |
|||
|
|||
## Detalhes muito técnicos |
|||
|
|||
!!! warning |
|||
Você pode provavelmente pular isso. |
|||
|
|||
Esses são detalhes muito técnicos de como **FastAPI** funciona por baixo do capô. |
|||
|
|||
Se você tem algum conhecimento técnico (corrotinas, threads, blocking etc) e está curioso sobre como o FastAPI controla o `async def` vs normal `def`, vá em frente. |
|||
|
|||
### Funções de operação de rota |
|||
|
|||
Quando você declara uma *função de operação de rota* com `def` normal ao invés de `async def`, ela é rodada em uma threadpool externa que então é aguardada, ao invés de ser chamada diretamente (ela poderia bloquear o servidor). |
|||
|
|||
Se você está chegando de outro framework assíncrono que não faz o trabalho descrito acima e você está acostumado a definir triviais *funções de operação de rota* com simples `def` para ter um mínimo ganho de performance (cerca de 100 nanosegundos), por favor observe que no **FastAPI** o efeito pode ser bem o oposto. Nesses casos, é melhor usar `async def` a menos que suas *funções de operação de rota* utilizem código que performem bloqueamento <abbr title="Input/Output: disco lendo ou escrevendo, comunicações de rede.">IO</abbr>. |
|||
|
|||
Ainda, em ambas as situações, as chances são que o **FastAPI** será [ainda mais rápido](/#performance){.internal-link target=_blank} do que (ou ao menos comparável a) seus frameworks antecessores. |
|||
|
|||
### Dependências |
|||
|
|||
O mesmo se aplica para as dependências. Se uma dependência tem as funções com padrão `def` ao invés de `async def`, ela é rodada no threadpool externo. |
|||
|
|||
### Sub-dependências |
|||
|
|||
Você pode ter múltiplas dependências e sub-dependências exigindo uma a outra (como parâmetros de definições de funções), algumas delas podem ser criadas com `async def` e algumas com `def` normal. Isso ainda poderia funcionar, e aquelas criadas com `def` podem ser chamadas em uma thread externa ao invés de serem "aguardadas". |
|||
|
|||
### Outras funções de utilidade |
|||
|
|||
Qualquer outra função de utilidade que você chame diretamente pode ser criada com `def` normal ou `async def` e o FastAPI não irá afetar o modo como você a chama. |
|||
|
|||
Isso está em contraste às funções que o FastAPI chama para você: *funções de operação de rota* e dependências. |
|||
|
|||
Se sua função de utilidade é uma função normal com `def`, ela será chamada diretamente (como você a escreve no código), não em uma threadpool, se a função é criada com `async def` então você deve esperar por essa função quando você chamá-la no seu código. |
|||
|
|||
--- |
|||
|
|||
Novamente, esses são detalhes muito técnicos que provavelmente possam ser úteis caso você esteja procurando por eles. |
|||
|
|||
Caso contrário, você deve ficar bem com as dicas da seção acima: <a href="#in-a-hurry">Com pressa?</a>. |
Loading…
Reference in new issue