Esta página descreve como ler várias tabelas de uma base de dados do Microsoft SQL Server, usando a origem de várias tabelas. Use a origem de várias tabelas quando quiser que o pipeline leia a partir de várias tabelas. Se quiser que o pipeline leia a partir de uma única tabela, consulte o artigo Ler a partir de uma tabela do SQL Server.
A origem de várias tabelas gera dados com vários esquemas e inclui um campo de nome da tabela que indica a tabela de onde os dados provêm. Quando usar a origem de várias tabelas, use um dos destinos de várias tabelas: várias tabelas do BigQuery ou vários ficheiros do GCS.
Armazene a palavra-passe do SQL Server como uma chave segura
Adicione a sua palavra-passe do SQL Server como uma chave segura para encriptar na sua instância do Cloud Data Fusion. Mais tarde, neste guia, vai certificar-se de que a sua palavra-passe é obtida através do Cloud KMS.
No canto superior direito de qualquer página do Cloud Data Fusion, clique em Administrador do sistema.
Clique no separador Configuração.
Clique em Fazer chamadas HTTP.
No menu pendente, escolha PUT.
No campo do caminho, introduza
namespaces/NAMESPACE_ID/securekeys/PASSWORD
.No campo Corpo, introduza
{"data":"SQL_SERVER_PASSWORD"}
.Clique em Enviar.
Certifique-se de que a Resposta que recebe tem o código de estado 200
.
Obtenha o controlador JDBC para o SQL Server
Usar o Hub
Na IU do Cloud Data Fusion, clique em Hub.
Na barra de pesquisa, introduza
Microsoft SQL Server JDBC Driver
.Clique em Controlador JDBC do Microsoft SQL Server.
Clique em Transferir. Siga os passos de transferência apresentados.
Clique em Implementar. Carregue o ficheiro JAR do passo anterior.
Clique em Concluir.
Usar o Studio
Aceda a Microsoft.com.
Escolha a transferência e clique em Transferir.
Na IU do Cloud Data Fusion, clique em
Menu e navegue para a página Studio.Clique em
Adicionar.Em Driver, clique em Carregar.
Carregue o ficheiro JAR transferido no passo 2.
Clicar em Seguinte.
Configure o impulsionador introduzindo um Nome.
No campo Nome da classe, introduza
com.microsoft.sqlserver.jdbc.SQLServerDriver
.Clique em Concluir.
Implemente os plug-ins de várias tabelas
Na IU Web do Cloud Data Fusion, clique em Hub.
Na barra de pesquisa, introduza
Multiple table plugins
.Clique em Vários plug-ins de tabelas.
Clique em Implementar.
Clique em Concluir.
Clique em Criar um pipeline.
Estabeleça ligação ao SQL Server
Na IU do Cloud Data Fusion, clique em
Menu e navegue para a página Studio.No Studio, expanda o menu Fonte.
Clique em Várias tabelas de base de dados.
Passe o ponteiro do rato sobre o nó Várias tabelas de base de dados e clique em Propriedades.
No campo Nome de referência, especifique um nome de referência que vai ser usado para identificar a sua origem do SQL Server.
No campo String de ligação JDBC, introduza a string de ligação JDBC. Por exemplo,
jdbc:sqlserver://mydbhost:1433
. Para mais informações, consulte o artigo Criar o URL de associação.Introduza o Nome do plugin JDBC, o Nome de utilizador da base de dados e a Palavra-passe do utilizador da base de dados.
Clique em Validar.
Clique em
Fechar.
Associar ao BigQuery ou ao Cloud Storage
Na IU do Cloud Data Fusion, clique em
Menu e navegue para a página Studio.Expandir Lavatório.
Clique em BigQuery Multi Table ou GCS Multi File.
Associe o nó Tabelas de várias bases de dados com BigQuery Multi Table ou GCS Multi File.
Passe o ponteiro do rato sobre o nó BigQuery Multi Table ou GCS Multi File, clique em Propriedades e configure o destino.
Para mais informações, consulte os artigos Google BigQuery Multi Table Sink e Google Cloud Storage Multi File Sink.
Clique em Validar.
Clique em
Fechar.
Execute uma pré-visualização do pipeline
Na IU do Cloud Data Fusion, clique em
Menu e navegue para a página Studio.Clique em Pré-visualizar.
Clique em Executar. Aguarde até que a pré-visualização seja concluída com êxito.
Implemente o pipeline
Na IU do Cloud Data Fusion, clique em
Menu e navegue para a página Studio.Clique em Implementar.
Execute o pipeline
Na IU do Cloud Data Fusion, clique em
Menu.Clique em Lista.
Clique no pipeline.
Na página de detalhes do pipeline, clique em Executar.