ebook img

AWS Data Pipeline PDF

329 Pages·2017·2.16 MB·Portuguese
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview AWS Data Pipeline

AWS Data Pipeline Guia do desenvolvedor Versão da API 2012-10-29 AWS Data Pipeline Guia do desenvolvedor AWS Data Pipeline: Guia do desenvolvedor Copyright © 2022 Amazon Web Services, Inc. and/or its affiliates. All rights reserved. As marcas comerciais e imagens comerciais da Amazon não podem ser usadas no contexto de nenhum produto ou serviço que não seja da Amazon, nem de qualquer maneira que possa gerar confusão entre os clientes ou que deprecie ou desprestigie a Amazon. Todas as outras marcas comerciais que não pertencem à Amazon pertencem a seus respectivos proprietários, que podem ou não ser afiliados, patrocinados pela Amazon ou ter conexão com ela. AWS Data Pipeline Guia do desenvolvedor Table of Contents O que é o AWS Data Pipeline?............................................................................................................ 1 Serviços relacionados................................................................................................................. 2 Como acessar o AWS Data Pipeline............................................................................................. 2 Definição de preços.................................................................................................................... 3 Tipos de instância com suporte para as atividades de trabalho do pipeline.......................................... 3 Instâncias do Amazon EC2 padrão por região da AWS........................................................... 3 Instâncias do Amazon EC2 compatíveis............................................................................... 4 Instâncias do Amazon EC2 compatíveis com o Amazon EMR Clusters....................................... 5 Conceitos do AWS Data Pipeline.......................................................................................................... 6 Definição de pipeline................................................................................................................... 6 Componentes, instâncias e tentativas de pipeline............................................................................ 7 Executores de tarefas................................................................................................................. 8 Nós de dados............................................................................................................................ 9 Bancos de dados....................................................................................................................... 9 Atividades.................................................................................................................................. 9 Precondições............................................................................................................................ 10 Precondições gerenciadas pelo sistema............................................................................... 10 Precondições gerenciadas pelo usuário................................................................................ 11 Recursos................................................................................................................................. 11 Limites de recurso............................................................................................................ 11 Plataformas com suporte................................................................................................... 11 Instâncias spot do Amazon EC2 com clusters do Amazon EMR eAWS Data Pipeline................... 12 Ações...................................................................................................................................... 13 Monitoramento proativo de pipelines.................................................................................... 13 Configuração.................................................................................................................................... 14 Cadastre-se no AWS................................................................................................................. 14 Crie funções do IAMAWS Data Pipeline e recursos do pipeline........................................................ 14 Permita que os diretores do IAM (usuários e grupos) realizem as ações necessárias........................... 15 Conceitos básicos do AWS Data Pipeline............................................................................................. 16 Criar o pipeline......................................................................................................................... 17 Monitorar o pipeline em execução............................................................................................... 17 Visualizar a saída..................................................................................................................... 18 Excluir o pipeline...................................................................................................................... 18 Trabalho com pipelines...................................................................................................................... 19 Programar pipelines.................................................................................................................. 19 Criar uma programação usando o console............................................................................ 19 Sob demanda................................................................................................................... 20 Estilo de série temporal x estilo Cron................................................................................... 20 Tarefas de preenchimento.................................................................................................. 21 Eficiência de recurso máxima usando programações.............................................................. 22 Proteger contra a substituição de dados............................................................................... 22 Criar um pipeline...................................................................................................................... 22 Criar pipelines usando modelos de console.......................................................................... 22 Criar pipelines usando o console manualmente..................................................................... 36 Visualizar os pipelines............................................................................................................... 42 Interpretar códigos de status do pipeline.............................................................................. 42 Interpretar pipeline e estado de integridade do componente.................................................... 44 Visualizar as definições do pipeline..................................................................................... 45 Visualizar detalhes da instância do pipeline.......................................................................... 46 Visualizar logs de pipeline.................................................................................................. 47 Editar o pipeline....................................................................................................................... 48 Limitações....................................................................................................................... 48 Editar um pipeline usando o console................................................................................... 49 Editar um pipeline usando a AWS CLI................................................................................. 49 Versão da API 2012-10-29 iii AWS Data Pipeline Guia do desenvolvedor Clonar o pipeline...................................................................................................................... 50 Marcar o pipeline...................................................................................................................... 50 Desativar o pipeline.................................................................................................................. 51 Desativar o pipeline usando o console................................................................................. 52 Desativar o pipeline usando a AWS CLI............................................................................... 52 Excluir o pipeline...................................................................................................................... 52 Preparar dados e tabelas com atividades..................................................................................... 53 Preparação de dados com ShellCommandActivity.................................................................. 54 Preparação da tabela com Hive e nós de dados compatíveis com preparação............................ 55 Preparação da tabela com Hive e nós de dados incompatíveis com preparação.......................... 56 Executar recursos em uma VPC................................................................................................. 57 Criar e configurar uma VPC............................................................................................... 57 Configurar a conectividade entre recursos............................................................................ 58 Configurar o recurso......................................................................................................... 59 Migrar objetos EC2Resource em um pipeline do EC2-Classic para VPCs.................................. 60 Usar instâncias spot do em um pipeline....................................................................................... 62 Usar recursos em várias regiões................................................................................................. 62 Falhas e novas execuções em cascata........................................................................................ 64 Atividades........................................................................................................................ 64 Nós de dados e precondições............................................................................................ 64 Recursos......................................................................................................................... 64 Reexecutar objetos de falha em cascata.............................................................................. 64 Falha em cascata e preenchimentos.................................................................................... 65 Sintaxe do arquivo de definição do pipeline.................................................................................. 65 Estrutura do arquivo.......................................................................................................... 65 Campos de pipeline.......................................................................................................... 66 Campos definidos pelo usuário........................................................................................... 67 Trabalhar com a API................................................................................................................. 67 Instalar o SDK da AWS..................................................................................................... 67 Fazer uma solicitação HTTP para o AWS Data Pipeline.......................................................... 68 Segurança....................................................................................................................................... 72 Proteção de dados.................................................................................................................... 72 Identity and Access Management................................................................................................ 73 Políticas do IAM para o AWS Data Pipeline.......................................................................... 74 Exemplo de políticas para o AWS Data Pipeline.................................................................... 77 Funções do IAM............................................................................................................... 79 Registro em log e monitoramento................................................................................................ 85 Informações do AWS Data Pipeline no CloudTrail.................................................................. 85 Noções básicas das entradas dos arquivos de log do AWS Data Pipeline.................................. 86 Resposta a incidentes............................................................................................................... 87 Validação de compatibilidade...................................................................................................... 87 Resiliência............................................................................................................................... 87 Segurança da infraestrutura....................................................................................................... 87 Análise de vulnerabilidade e configuração no AWS Data Pipeline..................................................... 88 Tutoriais.......................................................................................................................................... 89 Processar dados usando o Amazon EMR com Hadoop Streaming.................................................... 89 Antes de começar............................................................................................................. 90 Usar o console................................................................................................................. 90 Uso da CLI...................................................................................................................... 93 Importar e exportar dados do DynamoDB..................................................................................... 96 Parte 1: Importar dados para o DynamoDB.......................................................................... 97 Parte 2: Exportar dados do DynamoDB.............................................................................. 102 Copiar dados CSV do Amazon S3 para o Amazon S3.................................................................. 107 Antes de começar........................................................................................................... 107 Usar o console............................................................................................................... 108 Uso da CLI.................................................................................................................... 112 Exportar dados do MySQL para o Amazon S3............................................................................ 116 Versão da API 2012-10-29 iv AWS Data Pipeline Guia do desenvolvedor Antes de começar........................................................................................................... 117 Usar o console............................................................................................................... 118 Uso da CLI.................................................................................................................... 121 Copiar dados para o Amazon Redshift....................................................................................... 128 Antes de começar: Configurar opções de cópia................................................................... 128 Antes de começar: Configure o pipeline, a segurança e o cluster............................................ 129 Usar o console............................................................................................................... 130 Uso da CLI.................................................................................................................... 132 Expressões e funções do pipeline..................................................................................................... 140 Tipos de dados simples........................................................................................................... 140 DateTime....................................................................................................................... 140 Numeric......................................................................................................................... 140 Referências de objeto...................................................................................................... 140 Período.......................................................................................................................... 140 String............................................................................................................................ 141 Expressões............................................................................................................................ 141 Referenciar campos e objetos........................................................................................... 141 Expressões aninhadas..................................................................................................... 142 Listas............................................................................................................................ 142 Expressão de nó............................................................................................................. 142 Avaliação de expressões.................................................................................................. 143 Funções matemáticas.............................................................................................................. 144 Funções de string................................................................................................................... 144 Funções de data e hora........................................................................................................... 145 Caracteres especiais............................................................................................................... 150 Referência de objeto de pipeline....................................................................................................... 151 Nós de dados......................................................................................................................... 152 DynamoDBDataNode....................................................................................................... 152 MySqlDataNode.............................................................................................................. 157 RedshiftDataNode........................................................................................................... 162 S3DataNode................................................................................................................... 167 SqlDataNode.................................................................................................................. 172 Atividades.............................................................................................................................. 177 CopyActivity.................................................................................................................... 177 EmrActivity..................................................................................................................... 182 HadoopActivity................................................................................................................ 188 HiveActivity..................................................................................................................... 196 HiveCopyActivity............................................................................................................. 202 PigActivity...................................................................................................................... 208 RedshiftCopyActivity........................................................................................................ 218 ShellCommandActivity...................................................................................................... 227 SqlActivity...................................................................................................................... 233 Recursos............................................................................................................................... 238 Ec2Resource.................................................................................................................. 238 EmrCluster..................................................................................................................... 245 HttpProxy....................................................................................................................... 266 Precondições.......................................................................................................................... 268 DynamoDBDataExists...................................................................................................... 268 DynamoDBTableExists..................................................................................................... 270 Exists............................................................................................................................ 273 S3KeyExists................................................................................................................... 276 S3PrefixNotEmpty........................................................................................................... 279 ShellCommandPrecondition.............................................................................................. 282 Bancos de dados.................................................................................................................... 286 JdbcDatabase................................................................................................................. 286 RdsDatabase.................................................................................................................. 287 RedshiftDatabase............................................................................................................ 289 Versão da API 2012-10-29 v AWS Data Pipeline Guia do desenvolvedor Formatos de dados................................................................................................................. 290 Formatos de dados CSV.................................................................................................. 291 Formato de dados personalizado....................................................................................... 292 DynamoDBDataFormat..................................................................................................... 293 DynamoDBExportDataFormat............................................................................................ 295 RegEx Formato de dados................................................................................................. 297 Formatos de dados TSV.................................................................................................. 298 Ações.................................................................................................................................... 299 SnsAlarm....................................................................................................................... 300 Encerrar......................................................................................................................... 301 Schedule................................................................................................................................ 302 Exemplos....................................................................................................................... 302 Sintaxe.......................................................................................................................... 306 Utilitários................................................................................................................................ 307 ShellScriptConfig............................................................................................................. 307 EmrConfiguration............................................................................................................. 308 Propriedade.................................................................................................................... 312 Trabalho com Task Runner.............................................................................................................. 314 executor de tarefas ativadoAWS Data Pipeline-Recursos gerenciados............................................. 314 Executando trabalhos em recursos existentes usando o Task Runner............................................. 316 Instalação do executor de tarefas...................................................................................... 317 (Opcional) Conceder acesso ao Task Runner ao Amazon RDS.............................................. 318 Iniciando executor de tarefas............................................................................................ 319 Verificando o registro do executor de tarefas....................................................................... 320 Tópicos e condições prévias do Task Runner.............................................................................. 320 Opções de configuração do Task R........................................................................................... 320 Usar o Task Runner com um proxy........................................................................................... 322 Executor de tarefas e AMIs personalizadas................................................................................. 322 Solução de problemas..................................................................................................................... 323 Localizar erros em pipelines..................................................................................................... 323 Identificar o cluster do Amazon EMR que serve seu pipeline.......................................................... 323 Interpretar detalhes de status do pipeline.................................................................................... 324 Localizar logs de erro.............................................................................................................. 325 Logs de pipeline............................................................................................................. 325 Logs de Job do Hadoop e do Amazon EMR....................................................................... 326 Resolver problemas comuns..................................................................................................... 326 Pipeline preso em status pendente.................................................................................... 326 Componente de pipeline preso no status Waiting for Runner.................................................. 327 Componente de pipeline preso no status WAITING_ON_DEPENDENCIES............................... 327 A execução não inicia quando programada......................................................................... 328 Os componentes do pipeline são executados na ordem errada............................................... 328 O cluster do EMR falha com erro: O token de segurança incluído na solicitação é inválido ........... 328 Permissões insuficientes para acessar recursos................................................................... 329 Código de status: Código de Erro 400: PipelineNotFoundException......................................... 329 Criar um pipeline provoca um erro de token de segurança.................................................... 329 Não é possível ver detalhes do pipeline no console.............................................................. 329 Erro no código de status do executor remoto: 404, AWS Service: Amazon S3........................... 329 Acesso negado – Não autorizado para executar a função datapipeline:.................................... 329 AMIs do Amazon EMR mais antigas podem criar dados falsos em arquivos CSV grandes........... 330 Aumentar limites do AWS Data Pipeline............................................................................. 330 Limites........................................................................................................................................... 331 Limites da conta..................................................................................................................... 331 Limites de chamada do serviço web.......................................................................................... 332 Considerações sobre escalabilidade........................................................................................... 333 Recursos da AWS Data Pipeline....................................................................................................... 334 Histórico do documento.................................................................................................................... 335 ............................................................................................................................................. cccxxxviii Versão da API 2012-10-29 vi AWS Data Pipeline Guia do desenvolvedor O que é o AWS Data Pipeline? O AWS Data Pipeline é um serviço web que você pode usar para automatizar a movimentação e a transformação de dados. Com o AWS Data Pipeline, você pode definir fluxos de trabalho dirigidos por dados para que as tarefas possam ser dependentes da conclusão bem-sucedida das tarefas anteriores. Você define os parâmetros das transformações dos seus dados, e o AWS Data Pipeline impõe a lógica configurada. Os seguintes componentes do AWS Data Pipeline trabalham em conjunto para gerenciar seus dados: • Uma definição de pipeline especifica a lógica de negócios do seu gerenciamento de dados. Para obter mais informações, consulte Sintaxe do arquivo de definição do pipeline (p. 65). • UMApipelinePrograma e executa tarefas por meio da criação de instâncias do Amazon EC2 para realizar atividades de trabalho definidas. Você faz upload da sua definição de pipeline no pipeline e, em seguida, o ativa. Você pode editar a definição de pipeline para um pipeline em execução e ativá-lo novamente para que essa definição entre em vigor. Você pode desativar o pipeline, modificar uma fonte de dados e, em seguida, ativar o pipeline novamente. Quando não precisar mais do pipeline, você poderá excluí-lo. • Executor de tarefasO pesquisará tarefas e as executará. Por exemplo, o Task Runner pode copiar arquivos de log para o Amazon S3 e executar clusters do Amazon EMR. O Executor de tarefas é instalado e executado automaticamente nos recursos criados pelas suas definições de pipeline. Você pode escrever um aplicativo executor de tarefa personalizado ou usar o aplicativo Executor de tarefas fornecido peloAWS Data Pipeline. Para obter mais informações, consulte Executores de tarefas (p. 8). Por exemplo, você pode usar oAWS Data PipelinePara arquivar diariamente os logs do Amazon Simple Storage Service (Amazon S3) e executar semanalmente um cluster do Amazon EMR (Amazon EMR) nesses logs para gerar relatórios de tráfego.AWS Data PipelinePrograma as tarefas diárias para copiar dados e a tarefa semanal para iniciar o cluster do Amazon EMR.AWS Data PipelineO também garante que o Amazon EMR aguarde até que os dados finais do dia sejam enviados para o Amazon S3 para começar a análise, mesmo que haja um atraso imprevisto no upload dos logs. Versão da API 2012-10-29 1 AWS Data Pipeline Guia do desenvolvedor Serviços relacionados Índice • Serviços relacionados (p. 2) • Como acessar o AWS Data Pipeline (p. 2) • Definição de preços (p. 3) • Tipos de instância com suporte para as atividades de trabalho do pipeline (p. 3) Serviços relacionados O AWS Data Pipeline trabalha com os serviços a seguir para armazenar dados. • Amazon DynamoDB — Fornece um banco de dados NoSQL totalmente gerenciado com desempenho rápido por um baixo custo. Para obter mais informações, consulteGuia do desenvolvedor do Amazon DynamoDB. • Amazon RDS — Fornece um banco de dados relacional totalmente gerenciado que é dimensionado para conjuntos de dados grandes. Para obter mais informações, consulteGuia do desenvolvedor do Amazon Relational Database Service. • Amazon Redshift — Fornece um data warehouse rápido, totalmente gerenciado e em escala de petabytes, que torna simples e rentável analisar uma grande quantidade de dados. Para obter mais informações, consulteGuia do desenvolvedor de banco de dados do Amazon. • Amazon S3 — Fornece armazenamento de objetos seguro, durável e altamente escalável. Para obter mais informações, consulteGuia do usuário do Amazon Simple Storage Service. O AWS Data Pipeline trabalha com os serviços de computação a seguir para transformar dados. • Amazon EC2 — Fornece capacidade computacional redimensionável — literalmente servidores nos datacenters da Amazon — que pode ser usada para criar e hospedar seus sistemas de software. Para obter mais informações, consulteGuia do usuário do Amazon EC2 para instâncias do Linux. • Amazon EMR — Torna fácil, rápido e econômico distribuir e processar grandes quantidades de dados nos servidores do Amazon EC2 por meio de estruturas como o Apache Hadoop ou o Apache Spark. Para obter mais informações, consulteGuia do desenvolvedor do Amazon EMR. Como acessar o AWS Data Pipeline Você pode criar, acessar e gerenciar seus pipelines usando qualquer uma das seguintes interfaces: • AWS Management Console— Fornece uma interface web que pode ser usada para acessar oAWS Data Pipeline. • AWS Command Line Interface(AWS CLI)— Fornece comandos para um amplo conjunto de serviços da AWS, incluindo oAWS Data PipelineE é compatível com Windows, macOS e Linux. Para obter mais informações sobre como instalar a AWS CLI, consulte AWS Command Line Interface. Para obter uma lista de comandos do AWS Data Pipeline, consulte datapipeline. • AWS SDKs: fornecem APIs específicas da linguagem e cuidam de muitos dos detalhes da conexão, como cálculo de assinaturas, tratamento de novas tentativas de solicitação e tratamento de erros. Para mais informações, consulte AWS SDKs. • API de consulta— Fornece APIs de baixo nível que você chama usando solicitações HTTPS. Usar a API de consulta é a maneira mais direta para acessar a AWS Data Pipeline, mas exige que seu aplicativo lide com detalhes de baixo nível, como a geração de hash para assinar a solicitação e manuseio de erros. Para obter mais informações, consulte a Referência da API do AWS Data Pipeline. Versão da API 2012-10-29 2 AWS Data Pipeline Guia do desenvolvedor Definição de preços Definição de preços Com o Amazon Web Services, você paga somente pelo que usar. No AWS Data Pipeline, você paga pelo pipeline com base na frequência com que suas atividades e precondições estão programas para execução e no local onde elas serão executadas. Para obter mais informações, consulte Definição de preço do AWS Data Pipeline. Se sua conta da AWS tiver menos de 12 meses, você poderá usar o nível gratuito. O nível gratuito inclui três precondições e cinco atividades mensais, ambas de baixa frequência, sem qualquer custo. Para obter mais informações, consulte AWS Free Tier (Nível gratuito da AWS). Tipos de instância com suporte para as atividades de trabalho do pipeline QuandoAWS Data PipelineExecuta um pipeline, ele compila os componentes do pipeline para criar um conjunto de instâncias do Amazon EC2 acionáveis. Cada instância contém todas as informações para execução de uma tarefa específica. O conjunto completo de instâncias é a lista de tarefas do pipeline. O AWS Data Pipeline entrega as instâncias aos executores de tarefas para processamento. Instâncias do EC2 acompanham diferentes configurações, que são conhecidas como tipos de instâncias. Cada tipo de instância tem uma capacidade diferente de CPU, entrada/saída e armazenamento. Além de especificar o tipo de instância para uma atividade, você pode escolher diferentes opções de compra. Nem todos os tipos de instâncias estão disponíveis em todas as regiões da AWS. Se um tipo de instância não estiver disponível, o seu pipeline poderá apresentar falha na provisão ou travar no provisionamento. Para obter informações sobre a disponibilidade da instância, consulte aPágina de definição de preço do Amazon EC2. Abra o link para a opção de compra da instância e filtre por Region para ver se há algum tipo de instância disponível na região. Para obter mais informações sobre esses tipos de instâncias, famílias e tipos de virtualização, consulteInstâncias do Amazon EC2eMatriz de tipos de instância do Amazon Linux AMI. A tabela a seguir descreve os tipos de instância compatíveis com o AWS Data Pipeline. Você pode usarAWS Data PipelinePara executar instâncias do Amazon EC2 em qualquer região, incluindo regiões do qualAWS Data Pipelinenão é compatível. Para obter informações sobre as regiões com suporte para o AWS Data Pipeline, consulte Regiões e endpoints da AWS. Índice • Instâncias do Amazon EC2 padrão por região da AWS (p. 3) • Instâncias do Amazon EC2 compatíveis (p. 4) • Instâncias do Amazon EC2 compatíveis com o Amazon EMR Clusters (p. 5) Instâncias do Amazon EC2 padrão por região da AWS Se você não especificar um tipo de instância na definição de pipeline, o AWS Data Pipeline executará uma instância por padrão. A tabela a seguir relaciona as instâncias do Amazon EC2 queAWS Data Pipelineusa por padrão nas regiões em queAWS Data PipelineO é compatível. Nome da região Região Tipo de instância Leste dos EUA (Norte da Virgínia) us-east-1 m1.small Versão da API 2012-10-29 3 AWS Data Pipeline Guia do desenvolvedor Instâncias do Amazon EC2 compatíveis Nome da região Região Tipo de instância Oeste dos EUA (Oregon) us-west-2 m1.small Ásia-Pacífico (Sydney) ap-southeast-2 m1.small Ásia-Pacífico (Tóquio) ap-northeast-1 m1.small UE (Irlanda) eu-west-1 m1.small A tabela a seguir relaciona as instâncias do Amazon EC2 queAWS Data Pipelineé iniciado por padrão nas regiões em queAWS Data Pipelinenão é compatível. Nome da região Região Tipo de instância Leste dos EUA (Ohio) us-east-2 t2.small Oeste dos EUA (Norte da us-west-1 m1.small Califórnia) Ásia-Pacífico (Mumbai) ap-south-1 t2.small Ásia-Pacífico (Singapura) ap-southeast-1 m1.small Ásia-Pacífico (Seul) ap-northeast-2 t2.small Canadá (Central) ca-central-1 t2.small UE (Frankfurt) eu-central-1 t2.small UE (Londres) eu-west-2 t2.small UE (Paris) eu-west-3 t2.small América do Sul (São Paulo) sa-east-1 m1.small Instâncias do Amazon EC2 compatíveis Veja a seguir as instâncias compatíveis, além das instâncias padrão que são criadas se você não especificar um tipo de instância na definição do seu pipeline. A tabela a seguir relaciona as instâncias do Amazon EC2 queAWS Data PipelineSuporta e pode criar, se especificado. Classe de instância Tipos de instância Propósito geral t2.nano | t2.micro | t2.small | t2.medium | t2.large Otimizadas para computação c3.large | c3.xlarge | c3.2xlarge | c3.4xlarge | c3.8xlarge | c4.large | c4.xlarge | c4.2xlarge | c4.4xlarge | c4.8xlarge | c5.xlarge | c5.9xlarge | c5.2xlarge | c5.4xlarge | c5.9xlarge | c5.18xlarge | c5d.xlarge | c5d.2xlarge | c5d.4xlarge | c5d.9xlarge | c5d.18xlarge Otimizado para memória m3.medium | m3.large | m3.xlarge | m3.2xlarge | m4.large | m4.xlarge | m4.2xlarge | m4.4xlarge | m4.10xlarge | m4.16xlarge | m5.xlarge | m5.2xlarge | m5.4xlarge | m5.12xlarge | m5.24xlarge | m5d.xlarge | m5d.2xlarge | m5d.4xlarge | m5d.12xlarge | m5d.24xlarge Versão da API 2012-10-29 4

Description:
informações, consulte Amazon Redshift Database Developer Guide. • Amazon S3 – Fornece armazenamento de objetos seguro, durável e altamente escalável. Para obter mais informações, consulte Guia do desenvolvedor do Amazon Simple Storage Service. O AWS Data Pipeline trabalha com os
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.