Você está na página 1de 29

openSAP

Acelere as integrações empresariais com o SAP


Integration Suite

Semana 2 Unidade 1

00:00:05 Bem-vindo à segunda semana. Espero que tenha gostado semana passada,

00:00:10 e que você também usou o tempo para experimentar coisas no SAP Integration Suite. Começamos a segunda semana com a
unidade um, mensagens persistentes e de proteção.

00:00:22 A persistência pode ajudar em determinados cenários de integração. Imagine situações em que um sistema
deseja persistir

00:00:33 algo no Cloud Integration, e o outro sistema quer pegá-lo


00:00:37 porque ninguém quer abrir o sistema para receber chamadas. Ou você tem um fluxo que está sendo
executado várias vezes,
00:00:45 e você deseja manter um estado entre as execuções. Ou talvez você até queira manter um estado
entre diferentes fluxos de integração.
00:00:55 Por exemplo, um iFlow está buscando um token e outros iFlows estão usando esse token. Para

00:01:03 implementar esse conceito de persistência, oferecemos várias etapas de fluxo. Oferecemos o

00:01:10 armazenamento de dados. Oferecemos variáveis, bem como a etapa de persistência. Vamos verificar

00:01:15 os detalhes. Começamos com o armazenamento de dados.

00:01:20 O armazenamento de dados sempre persiste com toda a carga útil. O que também significa que, se você estiver recuperando esse
conteúdo do banco de dados,

00:01:30 você substituirá todo o corpo da sua mensagem. Se desejar, você também pode, além disso, armazenar
cabeçalhos.
00:01:39 E diferenciamos entre armazenamentos de dados onde apenas o iFlow pode acessar os dados, que também

00:01:47 gravou os dados, e aqueles armazenamentos de dados, aqui, chamamos isso de visibilidade global,

00:01:53 onde cada fluxo de integração no mesmo locatário pode acessar os dados. O conteúdo do armazenamento de
dados sempre será retido por padrão por 90 dias,

00:02:04 mas você pode aumentá-lo para 180 dias. O conteúdo do armazenamento de dados está usando o banco de dados do
locatário.

00:02:14 Falaremos sobre os detalhes mais tarde. Você tem quatro operações para o armazenamento de dados.

00:02:19 Você tem um GET, que recupera uma única mensagem. Você tem um WRITE, que escreve uma
única mensagem do seu corpo.
00:02:27 Você pode especificar o ID da entrada. Talvez você queira ter um ID de funcionário ou ID de produto.

00:02:33 E se você não tiver isso, os fluxos também irão gerar um ID arbitrário. Temos a etapa
SELECT,
00:02:41 que irá recuperar várias entradas e formar uma mensagem em massa, semelhante ao agregador que você
aprendeu na semana passada.

00:02:51 Aqui, é novamente importante que todas as mensagens que você persiste sejam mensagens XML.
00:02:57 E então, é claro, temos a etapa DELETE para remover entradas. Além do armazenamento de dados,
também temos variáveis.
00:03:06 As variáveis são semelhantes ao armazenamento de dados, mas destinam-se mais a coisas menores, como um token.

00:03:15 A vantagem é que você pode persistir esses valores diretamente de itens como cabeçalhos,
propriedades, partes da carga útil,
00:03:23 usando esta etapa de variáveis de gravação do locatário. Novamente, diferenciamos a visibilidade.
00:03:32 Portanto, você pode definir um escopo local se desmarcar este sinalizador de Escopo global aqui e, então, apenas o
mesmo fluxo pode acessar os dados.

00:03:42 Ou marque esta caixa Escopo global e, em seguida, todos os fluxos do inquilino podem acessar os dados.
00:03:50 Como esses dados podem ser necessários por um período um pouco mais longo, como um registro de data e hora para replicação delta de
dados,

00:03:59 o período de retenção aqui é de 400 dias. Quando quiser ler os dados, você pode usar diretamente o
modificador de conteúdo.
00:04:09 Ao definir cabeçalhos ou propriedades de troca, você pode selecionar o tipo de fonte, variável local
ou global,
00:04:18 e então você define a variável. É isso. Quando você persiste os dados usando o armazenamento de dados ou as
variáveis,

00:04:28 é claro, você também deseja ver os dados. Portanto, para isso, você encontra na seção de monitoramento também duas
entradas.

00:04:36 Um deles é Gerenciar repositórios de dados. O outro é Gerenciar Variáveis.


00:04:42 E aí você vê todas as entradas com o MPL ID do fluxo que gravou a entrada. Você vê a data de
00:04:48 vencimento, criada e assim por diante, e também para as variáveis.
00:04:53 Com as autorizações correspondentes, você também pode baixar ou remover o conteúdo.
00:05:01 Quando falamos sobre persistência, também temos que falar sobre o tratamento de transações. Imagine, como
mostrado nesta imagem,

00:05:09 você tem um fluxo de integração com várias etapas persistentes, como uma etapa de gravação para o armazenamento de dados e uma etapa de
exclusão.

00:05:19 Claro, é importante manter a consistência dos dados. Isso significa que se o fluxo atingiu
esta etapa de gravação
00:05:30 e agora ocorre um erro, talvez no seu Groovy Script, o que deve acontecer?
00:05:35 Para manter a consistência, você não quer que uma parte do fluxo seja executada e a
outra não.
00:05:43 Portanto, com o tratamento de transações para JDBC, isso significa para operações de banco de dados,
00:05:49 você pode garantir que todas as etapas sejam executadas com êxito ou nenhuma delas. Para
verificar essas configurações ou defini-las,
00:06:02 você clica aqui na parte superior dessas caixas do Processo de integração e, em seguida, obtém as configurações.

00:06:10 É importante saber que o tempo limite da transação deve ser maior do que o tempo de processamento do seu
fluxo de integração

00:06:21 porque, de outra forma, a transação terminaria antes de seu fluxo terminar e, então,
você teria problemas.
00:06:32 Também é importante se você estiver usando multicast paralelo ou divisões paralelas, você não pode usar
transações JDBC

00:06:39 porque não podemos gerar uma transação em vários segmentos. E também muito importante,
00:06:47 a conexão do banco de dados é bloqueada durante toda a transação. Isso significa que se todo o seu fluxo de
integração estiver usando uma transação,

00:06:57 o fluxo também usa para seu tempo de processamento completo a conexão com o banco de dados. Se você desligar esse
tratamento de transação,

00:07:06 isso significa que você definiu como "Não obrigatório", então cada uma das operações do banco de dados será persistida ou
confirmada separadamente.

00:07:17 E mesmo se agora, voltando a esta imagem, se sua etapa de gravação funcionasse,
00:07:21 ou seria executado com sucesso e, em seguida, ocorrer um erro, essa entrada permaneceria gravada.

00:07:29 E um comentário na nota aqui, se você não tiver nenhum armazenamento de dados ou etapa variável em seu
fluxo,

00:07:39 então, mesmo que o tratamento da transação esteja definido como "Requerido para JDBC", você pode ignorá-
lo.

00:07:44 Não será aplicado. A outra etapa de persistência, ou a etapa de persistência para persistência,

2
00:07:53 é usado para armazenar mensagens para fins de auditoria. Aqui, é importante saber que apenas as mensagens de
sucesso são armazenadas.

00:08:00 Portanto, se seu fluxo falhar com um erro, a mensagem não será persistida. Aqui, apenas o corpo é
persistente,
00:08:09 e sim, claro, se você ... executar a etapa persist e escrever a carga útil,
00:08:18 e, em seguida, seu fluxo de integração falha porque o nó trava com falta de memória, a entrada
permanece lá.
00:08:25 Além disso, as configurações de transação JDBC não têm influência nesta etapa de persistência. O período de retenção desta
etapa permanece em 30 dias

00:08:36 porque está vinculado ao período geral de retenção de log. Portanto, quando seus MPLs são removidos, essa

00:08:42 entrada da etapa persistente também é removida. Não temos um monitor para isso,

00:08:49 mas temos uma API OData para isso. Em uma das próximas semanas, falarei sobre APIs OData.
00:09:00 Em geral, as melhores práticas para persistência, embora haja outro capítulo para as melhores
práticas.
00:09:06 Para um buffer intrafluxo, isso significa que você precisa de algo no início e no final do iFlow.

00:09:11 Você nunca deve usar persistência a menos que seja realmente necessário porque o buffer ou a memória,
usando cabeçalhos ou propriedades, é muito rápido.

00:09:24 Além disso, observe a quantidade de conteúdo que você armazena, porque você tem um espaço total de banco de dados de
32 GB.

00:09:31 E, como mencionado, o armazenamento de dados e também as variáveis estão usando isso, e também a etapa de persistência.

00:09:40 Tudo o que você armazena no Cloud Integration serve apenas para armazenamento temporário. Portanto, se você realmente
precisa de algo permanentemente, use um armazenamento externo.

00:09:56 Ok, tópico diferente, segurança. Por que precisamos de segurança?

00:10:02 Bem, isso é óbvio, certo? Dados confidenciais que realmente queremos proteger de visitantes indesejados. E

00:10:09 dentro do Cloud Integration, os dados que vemos são seguros porque nosso armazenamento é criptografado.

00:10:16 Temos uma arquitetura robusta para tudo o que acontece. Existe um registro de auditoria.

00:10:23 E mesmo que seus sistemas de negócios também sejam seguros, existem infraestruturas entre eles,
00:10:29 como um servidor FTP, corretores de mensagens, alguma infraestrutura de rede. Então, realmente, vamos ver como podemos
proteger nossas mensagens.

00:10:39 Existem duas opções, uma é a segurança no nível da mensagem e a outra é a segurança no nível do
transporte.
00:10:48 A segurança no nível do transporte é um tópico muito amplo. Você tem dúvidas, talvez como, ok,
00:10:55 como proteger a comunicação HTTP, como fazer autenticação de certificado de cliente,
00:11:01 como proteger uma conexão SFTP e assim por diante. Portanto, isso seria demais para esta unidade.

00:11:08 E, portanto, temos muitos desses tópicos cobertos em nosso guia online. Então, por favor, use isso.
00:11:16 Você o encontrará no canto superior direito do seu locatário do Cloud Integration. Basta clicar neste ícone de
avatar,

00:11:22 e então você encontrará o guia online, e lá todas as perguntas serão respondidas. Segurança
00:11:28 em nível de mensagem, aqui falamos sobre criptografia e assinatura.
00:11:34 Então, para isso, geralmente você tem, ou todo mundo tem, um par de chaves, que consiste em uma parte privada e uma
parte pública.

00:11:41 A parte privada que você sempre mantém para si, como o proprietário do par de chaves,

00:11:45 e a parte pública, você pode dar a todos. E, portanto, para criptografar a mensagem,
00:11:52 você sempre, se quiser enviar uma mensagem, criptografá-la e depois enviá-la para alguém, você sempre usa
o certificado público do destinatário.
00:12:01 E com isso, você pode realmente tornar a mensagem ilegível, e o receptor, ou se receber de
alguém uma mensagem,

3
00:12:09 então você usa sua chave privada para descriptografar a mensagem e torná-la legível novamente.

00:12:16 Essa também é a razão pela qual sempre que uma mudança de chave acontece, isso significa que você realmente substitui
sua chave privada,

00:12:25 então, todos os seus parceiros de comunicação também precisam ser informados. Para este tipo de criptografia de nível de
mensagem de segurança,

00:12:35 temos muitas etapas de fluxo. Temos o criptografador e descriptografador PKCS # 7


00:12:41 bem como o criptografador e descriptografador PGP. E também, em nossos adaptadores, temos alguma
criptografia embutida.

00:12:52 A assinatura funciona ao contrário. Isso significa, aqui, quando você quiser assinar algo,
00:12:56 você usa sua chave privada para provar que a mensagem é sua. Por outro lado, se você
receber talvez uma mensagem de alguém
00:13:09 quem assinou a mensagem, você usará sua parte de chave pública
00:13:15 para verificar se a mensagem é realmente deles. As etapas do fluxo no Cloud Integration são PKCS #
7 signatário e verificador,
00:13:24 Signatário e verificador de XML, bem como o signatário simples. E, novamente, alguns dos adaptadores também possuem
algumas etapas de assinatura embutidas.

00:13:38 Ok, vamos para a parte de demonstração. Começamos novamente com nosso fluxo de integração que conhecemos na semana
passada,

00:13:47 onde temos os nossos cumprimentos de aniversário para os colaboradores. Ainda temos nossos dados de pesquisa do
conector SuccessFactors.

00:13:55 Em seguida, estamos chamando o mapeamento por meio do adaptador ProcessDirect. Os funcionários dividimos em
funcionários individuais.

00:14:02 Então decidimos, ok, eles nascem em setembro ou não? E aqueles que nascem em
setembro,
00:14:09 estamos extraindo o ID do funcionário, definindo-o como o nome do arquivo,
00:14:13 que usamos no canal SFTP. Então, nós os transformamos em JSON,
00:14:18 e agora estamos criptografando o conteúdo para que não seja realmente legível para alguém enquanto o arquivo
estiver no servidor SFTP.

00:14:27 Então, estamos usando o PKCS # 7. Portanto, aqui podemos decidir ou definir todo o conteúdo, como o tamanho do
bloco.

00:14:34 Podemos codificar o corpo com Base64, o que é bom se você quiser enviar o conteúdo para algum
lugar para não perder nenhum caractere.
00:14:44 Sim, você pode definir todas as configurações e, em seguida, decidir qual chave pública usar.
00:14:50 Aqui usamos o certificado de RH (hrcert) do nosso departamento de RH. E aqui no monitor
Keystore,
00:14:56 vemos que carregamos o certificado antecipadamente. Então é isso que oferecemos aqui.
00:15:06 E para os funcionários que não nasceram em setembro, simplesmente escrevemos uma entrada em nosso armazenamento de
dados.

00:15:13 Então, vamos organizar isso um pouco. Ok, selecione a etapa de gravação novamente, ok, aqui,

00:15:20 o armazenamento de dados que dizemos se chamará "NotBornInSeptember", a visibilidade é restrita apenas a este
fluxo de integração.

00:15:30 E como um ID de entrada, estou usando novamente um XPath para usar o ID do funcionário como a chave. O
subprocesso de exceção permanece inalterado.

00:15:38 Então, vamos implantar. Ok, isso foi um sucesso.


00:15:43 Vamos aguardar a confirmação final. Ah, aqui está.
00:15:49 Ok, agora podemos pular para o monitor. Ok, vamos dar uma olhada nas MPLs,
00:16:02 e vemos, novamente, nosso fluxo, assim como o fluxo do ProcessDirect, foram executados com
sucesso.
00:16:10 E agora, antes de pularmos para o servidor SFTP, vamos verificar o monitor do Data Stores.

4
00:16:16 Você o encontrará aqui em Gerenciar lojas. Lá nós temos Data Stores. Em seguida,
00:16:22 selecionamos nosso armazenamento de dados "NotBornInSeptember". Possui 1.100
00:16:26 entradas. Você também vê a visibilidade aqui. Ok, e lá vemos todas as entradas.
00:16:33 Como o ID, selecionamos o ID do funcionário. Portanto, você vê todos os IDs de funcionários listados
aqui.
00:16:38 E então vemos a data de vencimento e também o tempo de retenção e assim por diante. Tudo bem, vamos atualizar
nosso diretório SFTP para ver quais arquivos foram gravados.

00:16:53 Agora são os que nasceram em setembro. Vamos copiá-lo para meu arquivo local e, em
00:17:00 seguida, tentar abri-lo. Mas como sou o hacker malvado,
00:17:05 Espero que eu não o veja e, como você pode ver, é difícil de ler, provavelmente impossível. Tudo bem.
00:17:14 Ok, como você aprendeu,
00:17:21 Existem diferentes opções de persistência, portanto, você pode escolher o que for necessário para o seu
cenário de integração.

00:17:32 O que quer que você tenha persistido, você também pode monitorar por meio de nossos armazenamentos de dados ou monitor de variáveis.

00:17:40 Para segurança, oferecemos segurança de nível de transporte, bem como segurança de nível de mensagem para proteger
suas mensagens contra acesso não autorizado.

00:17:51 E nossa documentação online contém respostas para muitas de suas perguntas. Obrigado por
assistir.

5
Semana 2 Unidade 2

00:00:05 Olá a todos, bem-vindos à segunda semana, unidade dois. E hoje aprenderemos como testar seu fluxo de
integração.
00:00:14 Para saber como você pode testar seu fluxo de integração, temos um recurso chamado simulação, que
00:00:21 permite testar um fluxo de integração inteiro ou partes de um fluxo de integração
00:00:26 especificando seu ponto inicial e final. E isso é muito útil porque permite que você teste
seu fluxo de integração
00:00:35 enquanto você desenvolve sem a necessidade de executá-lo, implantando-o e ativando explicitamente o
rastreamento.
00:00:43 E algumas das vantagens desse recurso são que você pode depurar a configuração do fluxo de
integração enquanto ela está sendo desenvolvida.
00:00:51 Também está disponível no modo somente leitura, bem como no modo de edição de seu editor de fluxo de
integração,

00:00:58 para que você também possa testar o conteúdo apenas configurado e ver se as configurações
fornecidas são válidas.
00:01:05 Ele também oferece uma opção para fornecer dados de teste, para que você também possa especificar quais seriam seus dados
de entrada para seu teste ou simulação.

00:01:15 E então você também pode zombar de sua resposta de simulação. Então, se em seu fluxo de integração você tem
uma chamada externa onde solicita resposta,

00:01:24 ou se você tiver um ProcessDirect, onde está se conectando a um fluxo de integração diferente,

00:01:28 a simulação não vai realmente testar essa conexão. Então, o que você pode fazer é especificar
uma resposta de simulação
00:01:36 que virá dessa chamada externa específica. Você pode zombar disso e, em seguida, executar sua
simulação
00:01:43 para ver se suas configurações estão totalmente corretas. E qualquer erro durante a simulação ou teste
de um fluxo de integração,
00:01:51 você pode identificar isso. E a simulação oferece detalhes de
00:01:55 qual foi o erro e por que ele foi causado. E no final, a vantagem mais importante é
que
00:02:02 a simulação oferece melhoria na produtividade do desenvolvedor para que você possa economizar
tempo e esforço
00:02:09 enquanto oferece a opção de testar seu fluxo de integração no próprio tempo de design.

00:02:16 Agora vamos ver como consumir o recurso de simulação. Então, se você entrar no seu editor de fluxo de
integração
00:02:23 ou inicie seu editor de fluxo de integração, você verá que no topo,
00:02:27 você terá a paleta com o botão Executar Simulação, o botão Limpar Simulação e o botão
Ajuda.
00:02:36 E isso não está ativo a menos que você especifique o ponto inicial e final. Se o iFlow, fluxo de integração, está
no modo somente leitura ou no modo de edição,
00:02:48 você pode fazer a simulação ou testar seu fluxo de integração. E como você pode fazer isso, você precisa clicar em um
fluxo de sequência

00:02:57 de onde você deseja iniciar o teste. Você pode clicar no fluxo da sequência e obter os botões
rápidos.
00:03:02 Você clica em Iniciar Simulação, solta-o lá e vai para o local onde deseja parar a simulação.

00:03:09 Então você, novamente, clica no fluxo da sequência e, em seguida, pode especificar o ponto final.
00:03:15 E com isso, você especifica o escopo do seu teste. Pode ser todo o fluxo de integração ou parte de um
fluxo de integração.

6
00:03:23 E depois de definir o escopo do seu teste, você deve especificar a entrada. E para
00:03:28 isso, o que você tem que fazer é clicar no ponto inicial.
00:03:33 Quando você clica no ponto inicial, abre uma caixa de diálogo onde você pode especificar a entrada de teste

00:03:39 especificando os cabeçalhos, propriedades ou corpo da mensagem ou, independentemente, você também
pode especificar qualquer um deles.
00:03:47 E depois de especificar os dados de teste e o escopo estiver pronto, você está pronto para testar seu
fluxo de integração.
00:03:54 Então você pode voltar para a paleta e clicar no botão Executar Simulação. E uma vez que você
clica no botão Run Simulation,
00:04:04 ele dispara o teste de seu fluxo de integração ou parte do fluxo de integração e, em seguida, mostra os
resultados de sua simulação de integração.
00:04:13 E sua simulação será parecida com isto, onde você pode ver os envelopes que estão disponíveis
em cada etapa do fluxo
00:04:20 dentro do escopo de seus testes. Você pode basicamente ver qual é a mensagem,
00:04:26 qual é a propriedade do cabeçalho e corpo da mensagem em cada etapa do fluxo, o que aconteceu com
isso.
00:04:33 Então, quais dados entraram na etapa de fluxo e o que saiu da etapa de fluxo. Basicamente,
você pode clicar no envelope,
00:04:39 e abre o conteúdo da mensagem na parte inferior, onde você pode ver as propriedades do
cabeçalho e o corpo
00:04:45 que foi acionado nessa etapa de fluxo específica. Com isso, você pode fazer todo o teste
do seu fluxo de integração.
00:04:56 E, como mencionei antes, se você tiver dentro de seu fluxo de integração uma chamada externa para,

00:05:01 digamos, um sistema externo, ou se estiver tentando chamar um ProcessDirect,

00:05:05 você tem que especificar uma resposta de simulação simulando esses dados, e então você será capaz de executar
sua simulação de ponta a ponta.

00:05:12 Vou mostrar isso também na demonstração dos próximos slides. Agora, com isso, encerramos a parte da simulação.

00:05:19 Mas também gostaria de falar sobre outro recurso interessante que existe no SAP Integration Suite,

00:05:26 e essas são as recomendações do fluxo de integração. A recomendação de fluxo de integração permite aos
desenvolvedores de integração

00:05:34 para poder adicionar etapas de fluxo subsequentes ao desenvolver seu fluxo de integração, fornecendo
recomendações.
00:05:41 E essa recomendação é baseada no aprendizado de máquina e em um rico conjunto de conteúdo padrão
pré-empacotado que é fornecido pela SAP.

00:05:50 Portanto, sempre que você clicar no fluxo de sequência para adicionar uma etapa do fluxo ou clicar na etapa do fluxo para
adicionar a próxima etapa do fluxo subsequente,

00:05:58 você obterá as etapas recomendadas como as três principais recomendações, que você pode
escolher, sim.
00:06:05 E se não quiser escolher essas etapas recomendadas, você pode pesquisar as outras etapas
do fluxo que deseja na lista abaixo.
00:06:14 Agora vamos dar uma olhada no sistema e ver como são os dois recursos, a simulação e as
recomendações de fluxo.
00:06:23 Portanto, este é o meu fluxo de integração. Esse é o "Enviar cumprimentos de aniversário aos funcionários".

00:06:29 E você pode ver que no topo você tem os botões, na paleta, você tem o botão Run
Simulation.
00:06:37 Então, deixe-me começar fornecendo o ponto inicial e também o ponto final. E então, quando eu clico no
ponto inicial,
00:06:45 Posso ver que a caixa de diálogo de entrada da simulação é exibida. Eu posso fornecer a contribuição.

00:06:50 Posso dizer OK e clicar no botão Executar Simulação. Agora, isso executa o teste e fornece os resultados
da simulação no fluxo de integração.

7
00:07:02 E você pode ver que os envelopes agora estão disponíveis e posso ver o que aconteceu com essa
mensagem em cada etapa do fluxo de integração.
00:07:10 Portanto, você pode olhar para as propriedades e olhar para o corpo. Depois desse modificador de conteúdo,

00:07:15 tínhamos adicionado uma propriedade particular. Então é esse "mês configurado", que é 12, que agora está
disponível aqui.

00:07:22 E então você tem uma etapa de script, que na verdade criou um cabeçalho personalizado. Isso
encerra o escopo que você criou aqui para o teste.
00:07:31 Agora vamos limpar isso e agora entrar no modo de edição para iniciar o teste de todo o fluxo
de integração.
00:07:39 Vou especificar o ponto inicial e, em seguida, dar o ponto final após o conversor XML para JSON. Eu forneço

00:07:45 a entrada novamente como um corpo e, em seguida, começo a simulação.

00:07:52 Agora você pode ver que todo o fluxo de integração é novamente decorado com os envelopes,
00:07:57 e se você perceber que ele pára após a resposta da solicitação. E a razão pela qual ele para após a resposta
do pedido é que

00:08:04 Não forneci a resposta de simulação simulada do ProcessDirect. Então eu preciso fazer isso.

00:08:11 Vou limpar isso novamente e começar de novo, fornecendo o ponto inicial, fornecendo o ponto final,
00:08:17 fornecendo a entrada, a entrada da simulação. Sim, e nesta entrada,
00:08:23 você pode ver que tenho três funcionários que especifiquei. E deixe-me agora especificar a
resposta para o ProcessDirect.
00:08:30 Portanto, aqui também irei especificar a resposta em um formato diferente. Portanto, tenho nosso formato de destino,

00:08:37 e eu tenho os três funcionários e seus dados em relação à sua identidade de funcionário e data de
nascimento.
00:08:43 E um dos registros está no mês configurado, que é dezembro. Portanto, as outras datas de nascimento
não são em dezembro.
00:08:51 Ok, então com isso, minha simulação está pronta. Eu agora o executo,

00:08:54 e agora você pode ver que toda a simulação do fluxo de integração foi bem-sucedida.
00:08:58 Agora posso olhar para cada uma das etapas do fluxo e ver o que aconteceu com minha mensagem ou com a entrada de
teste

00:09:04 quando passou por diferentes etapas do fluxo. Então, se você vir aqui ProcessDirect,
00:09:09 a saída do ProcessDirect agora está em um formato diferente. Esse é o nosso formato de destino
disponível.
00:09:14 E então, após a divisão, há três divisões de mensagem porque havia três funcionários que foram
enviados em meus dados de teste.
00:09:23 Portanto, tenho três divisões disponíveis e o roteador encaminha o registro do mês
configurado
00:09:29 no receptor, o servidor SFTP. Mas os que não estão no mês configurado vão para o data
store.
00:09:39 Portanto, você pode ver que dois registros foram enviados para o armazenamento de dados e um registro com a data de
nascimento em dezembro foi para o servidor SFTP.

00:09:48 Se você acessar o conversor XML para JSON, verá que agora o corpo foi convertido para o
formato JSON.
00:09:56 Agora, vamos examinar também um cenário de erro. Portanto, se eu alterar a tag em vez de "dob" para
00:10:03 "d" e executar a simulação, o que acontece? Para apenas ver como o erro está sendo capturado,
00:10:09 se você vir aqui que ocorreu um erro após a etapa de solicitação-resposta, e eu posso olhar os
detalhes do erro e isso me diz claramente qual é o erro.
00:10:18 E então posso consertar isso e prosseguir. Agora vamos dar uma olhada no recurso de recomendações de fluxo de
integração,

00:10:25 que é um recurso baseado em aprendizado de máquina que permite modelar seu fluxo de integração

8
00:10:33 fornecendo recomendações para as etapas subsequentes do fluxo. E você também pode pesquisar as etapas de
fluxo existentes

00:10:39 se você não quiser usar os que são recomendados. Então, neste caso, se eu
00:10:44 escolher o modificador de conteúdo, e depois disso, se eu clicar no sinal de mais,
00:10:49 Posso obter recomendações como Groovy Script, Request Reply e End Message. Da mesma forma, para
diferentes etapas do fluxo,
00:10:56 Vou receber recomendações diferentes. E tudo isso é baseado no aprendizado de máquina no
conteúdo de integração pré-empacotado,
00:11:03 o rico conjunto de conteúdo de integração pré-empacotado da SAP. E se eu tentar fazer isso após o armazenamento de
dados,

00:11:11 Ainda receberei recomendações como Solicitar resposta e Mensagem final. E da mesma forma, se eu tentar fazer
isso em um subprocesso de exceção após a etapa de script,

00:11:21 Receberei o Evento de término de erro e a Mensagem de término como as etapas recomendadas após o script.

00:11:27 Portanto, esse é um recurso muito importante que você pode usar e permite modelar seus fluxos de integração muito
rapidamente.

00:11:35 Com isso, chegamos ao final da demonstração. E para resumir o que aprendemos hoje,
00:11:39 o recurso de simulação e as recomendações de etapas de fluxo. O recurso de simulação permite que você
teste ou simule
00:11:47 partes de seu fluxo de integração ou todo o fluxo de integração, permitindo assim que o desenvolvedor de integração teste
no próprio tempo de design

00:11:56 ao desenvolver o fluxo de integração, sem a necessidade de implantar o fluxo de integração e


executá-lo em tempo real.
00:12:02 E também habilitando o rastreamento. A recomendação da etapa do fluxo permite que você modele rapidamente seu
fluxo de integração

00:12:10 adicionando etapas de fluxo subsequentes, que são baseadas no aprendizado de máquina

00:12:13 e um rico conjunto de conteúdo de integração pré-empacotado. Com isso, chegamos ao


00:12:19 fim. Muito obrigado e feliz aprendizado.

9
Semana 2 Unidade 3

00:00:05 Olá a todos, bem-vindos de volta. Bem-vindo à segunda semana, unidade três.

00:00:10 E hoje vamos aprender sobre a externalização das configurações do fluxo de integração. E antes de
entrarmos nos detalhes,
00:00:17 vamos tentar entender o que é externalização. A externalização é um recurso que permite que você
00:00:23 para separar a lógica de negócios da complexidade do fluxo de integração. O que isso significa é que, como usuário
empresarial,

00:00:31 você não precisa saber qual é o cenário que está sendo modelado no fluxo de integração, mas
00:00:36 apenas configure o fluxo de integração observando os campos-chave que são externalizados
00:00:42 e são capazes de executar esse cenário de integração. Na SAP, todo o conteúdo de integração pré-empacotado

00:00:50 que é enviado como parte do Integration Suite tem muitos dos campos configurados ou
externalizados.
00:00:58 Isso ajuda os clientes e consultores que estão usando o conteúdo de integração pré-empacotado
00:01:04 para configurar rapidamente os campos-chave do fluxo de integração e executá-los sem qualquer necessidade de
compreensão

00:01:12 todo o fluxo de integração ou cenário de integração. E esse recurso de externalização vem com
diferentes recursos
00:01:19 de fornecer um parâmetro. Você pode criar um parâmetro.
00:01:23 Você pode criar vários parâmetros para um campo ou também pode reutilizar os parâmetros em diferentes
campos.
00:01:31 E você também pode fornecer ... Há também um editor de externalização,
00:01:36 que pode ser usado para gerenciar os valores de todo o conjunto de parâmetros de integração que você
definiu em seu fluxo de integração em um só lugar.
00:01:48 Agora vamos ver como isso pode ser usado em seu fluxo de integração. Portanto, a primeira parte é o editor
de externalização,

00:01:56 e isso está disponível para você em cada nível de etapa de fluxo ou processo de integração ou em seu nível de fluxo de
integração na folha de propriedades.

00:02:06 No lado direito, você verá o botão Externalizar. Quando você clica nisso, abre o editor de
externalização,
00:02:12 e essa IU pode ser usada para fornecer parametrização ou externalização para diferentes campos.
00:02:20 Então, se você vir que tem o nome do campo, então você tem o nome do parâmetro desse lugar
00:02:24 e também o local de valor onde você pode fornecer esses valores. Da mesma forma, você também pode definir
externalização ou parametrizar os campos

00:02:32 da folha de propriedades de cada uma das etapas do fluxo ou dos próprios adaptadores. E você pode usar este editor
de externalização específico ou folha de propriedades

00:02:43 para também criar parâmetros, bem como reutilizá-los em diferentes campos. Vamos ver como
criar um parâmetro ou uma externalização.
00:02:55 Então, para criar, você tem que usar o formato de duas chaves, abrindo chaves, duas,
00:03:01 e, em seguida, o nome do parâmetro e duas chaves de fechamento. E depois de especificar isso,
assim que você tabular ou sair desse campo,
00:03:08 um token é criado para o valor desse parâmetro externalizado. E então, quando você clicar nesse token,
você receberá um pop-up,
00:03:16 que é para atualizar o valor. Você pode fornecer seu valor lá.
00:03:19 O valor padrão é possível enquanto você define sua externalização. E o valor configurado é
fornecido quando você configura o campo específico.
00:03:28 Então, vamos entender como você cria o parâmetro. Você usa as chaves, abrindo chaves,
define o nome do parâmetro,

10
00:03:35 e feche as chaves para definir o parâmetro. E depois de definir o parâmetro,

00:03:42 se você for para o próximo campo enquanto digita as duas chaves de abertura, verá a lista de parâmetros
existentes que estão disponíveis como sugestão automática,
00:03:50 e você pode usar isso também para reutilizar parâmetros existentes para um campo diferente.
00:03:57 Agora vamos ver como você também pode fazer a parametrização fornecendo vários parâmetros.
00:04:05 Portanto, a externalização também permite que você forneça vários parâmetros para um campo. Por
exemplo, se você tiver um sistema SuccessFactors onde deseja fornecer
00:04:14 diferentes partes do URL como parâmetros diferentes, você também pode fazer isso. Assim como, por exemplo, você pode
dizer host, você também pode dizer API.

00:04:23 O protocolo tem três parâmetros diferentes e, em seguida, especifica-os como valores diferentes,
00:04:28 que pode ser alterado de acordo com o sistema em que você está executando o fluxo de
integração.
00:04:34 E se você quiser remover uma externalização, o que você precisa fazer é apenas remover o
parâmetro daquele campo específico
00:04:41 e isso remove a externalização desse campo. Mas observe que cada remoção da
externalização não exclui
00:04:49 o parâmetro completamente do fluxo de integração, mas ele apenas remove a externalização desse
campo.
00:04:55 Mas para gerenciar e remover esse parâmetro de todo o fluxo de integração, você terá que voltar para
a visualização Parâmetros Externalizados
00:05:03 para gerenciar esses parâmetros. E é para isso que iremos no próximo slide.
00:05:08 E é aqui que falamos sobre como você gerencia seus parâmetros externalizados. Depois de
definir os diferentes parâmetros,
00:05:17 criar parâmetros diferentes para campos diferentes e, em seguida, etapas de fluxo e adaptadores em seu fluxo
de integração,

00:05:22 agora você pode chegar a esta visualização de Parâmetros Externalizados. No nível do fluxo de integração,

00:05:27 há uma guia chamada Parâmetros externalizados. E aqui você pode ver a lista de todos os
parâmetros
00:05:35 que você definiu ou usou em seu fluxo de integração com as colunas Valor padrão e
Valor configurado.
00:05:42 Assim, você pode fornecer os valores padrão aqui, gerenciá-los, cuidar dos valores e verificar se
os valores estão definidos corretamente aqui.
00:05:48 Você também pode usar o botão Remover não usado aqui para remover qualquer parâmetro não usado que está
disponível em seu fluxo de integração.

00:05:58 Agora, uma vez feita a externalização, como você a configura? Assim, depois de criar o fluxo
de integração,
00:06:05 você fez a externalização, você parametrizou alguns dos campos, você basicamente salva seu
fluxo de integração,
00:06:10 e então você pode clicar no botão Configurar no canto superior direito do fluxo de integração,
00:06:15 que abre a caixa de diálogo de configuração, onde você pode fornecer os valores configurados de seus
parâmetros externalizados.
00:06:22 Portanto, aqui você também obterá a dica de ferramenta de cada um dos parâmetros que foram usados e também
poderá fornecer valores lá.

00:06:29 Portanto, esta visualização de configuração também está disponível em seu explorador de pacotes. No explorador
de pacotes, se você também clicar no botão Ações,

00:06:37 também abrirá a visualização de configuração. Você também pode fazer configurações em massa.

00:06:43 Portanto, se você tiver vários fluxos de integração que deseja configurar juntos, pode ir para o
explorador de pacotes,

11
00:06:48 selecione vários fluxos de integração e clique no botão Configurar, que abre uma caixa de diálogo de
configuração em massa
00:06:54 onde você pode configurar os fluxos de integração um por um e, em seguida, salvar todos ou implantar todos os fluxos de
integração selecionados.

00:07:04 Agora vem a outra parte importante da externalização, que é o download de parâmetros
externalizados,
00:07:09 junto com o download de cenários de integração. Então, depois de baixar seus cenários de
integração,
00:07:14 para mover seu conteúdo de um locatário para outro, você precisa decidir se deseja fazer o
download do fluxo de integração
00:07:25 com os valores padrão dos parâmetros ou uma combinação dos valores configurados e padrão.

00:07:31 E isso é muito importante porque se você não quiser usar os valores configurados em seu sistema
de destino,
00:07:38 então você pode usar a opção de valores padrão. E se você quiser ter uma combinação
00:07:43 de ambos os valores configurados e padrão em seu sistema de destino, então você pode basicamente baixá-lo
usando essa opção.

00:07:50 Estas são algumas das recomendações ou melhores práticas que recomendamos usar quando você
estiver externalizando seu fluxo de integração.
00:07:57 Você deve externalizar todos os campos que considera genéricos o suficiente e não são específicos do
locatário.

00:08:03 Em seguida, você pode basicamente configurá-los e fornecer esses parâmetros para seu fluxo de integração.

00:08:10 E certifique-se de fornecer os valores padrão para os campos genéricos, que não são específicos do
inquilino.
00:08:16 Você também pode externalizar os parâmetros específicos do locatário, mas não deve fornecê-los como
valores padrão.
00:08:22 Eles devem vir dos valores configurados. Assim que você salvar seu fluxo de integração,

00:08:28 há verificações de validação que são executadas e isso também verifica os valores que você forneceu para seus
parâmetros.
00:08:34 E na visualização Parâmetros Externalizados, você pode basicamente ir e verificar quais são os
diferentes parâmetros que estão disponíveis,
00:08:40 se todos os valores estão corretamente mencionados e se estão todos corretos. E quando
você fizer o download, decida se o seu caso de uso é
00:08:50 que, no sistema de destino, você deseja apenas os valores padrão ou sua combinação de valores
configurados e padrão.
00:08:57 E essa decisão é totalmente dependente se você deseja usar os valores configurados em seu
sistema de destino ou não.
00:09:07 Agora vamos dar uma olhada no sistema e ver como isso funciona. Vamos entrar na demonstração.

00:09:12 Portanto, este é o meu fluxo de integração que é basicamente o mesmo que estamos
criando.
00:09:18 Portanto, vamos examinar o sistema SuccessFactors ou a configuração do adaptador SuccessFactors. Eu
tenho o botão Externalizar aqui.
00:09:24 Eu clico nisso. Ele abre o editor de externalização.
00:09:27 Vamos parametrizar este campo de endereço. Deixe-me definir um parâmetro.

00:09:32 Direi chaves, duas chaves abrindo e, em seguida, especificarei o nome do parâmetro como
"successFactors_system",
00:09:40 e eu abro. Recebo um token que é criado agora.
00:09:44 Quando clico no token, posso ver que há um valor padrão disponível.

12
00:09:47 Eu também posso mudar ou atualizar isso. Da mesma forma, vamos também fazer a parametrização de outros campos

00:09:53 como o sufixo de endereço, o tipo de proxy. E quando clico no tipo de chamada,
00:09:59 as chaves também me dão a sugestão automática de parâmetros existentes que estão disponíveis. Vamos

00:10:04 também externalizar isso. Vamos também externalizar o tamanho da página para 200 como o valor,

00:10:10 e também podemos ver na folha de propriedades. Lá, os tokens são criados para todos os
parâmetros externalizados.
00:10:18 Também podemos definir a externalização da folha de propriedades usando o mesmo formato de
duas chaves e, em seguida, tabulando.
00:10:28 Vejamos também o mesmo que faço para o campo de endereço do ProcessDirect. Aqui
também criei a parametrização.
00:10:41 Agora vamos aprender como posso fazer vários parâmetros. Então, se eu for para o campo Sufixo de endereço,

00:10:47 deixe-me excluir o parâmetro que estava lá e agora criar vários parâmetros. Então, vou criar
três parâmetros aqui,
00:10:54 um para a API, um para o protocolo e um para a versão. Então eu defino três parâmetros,
e abro,
00:11:03 e três tokens são criados para esses três parâmetros. Eu especifico os valores para cada um
desses parâmetros,
00:11:10 como para a API, / sfapi, para a versão, / v1 e para o protocolo, / soap. E depois de fazer
isso,
00:11:20 isso significa que este campo de endereço específico agora tem um valor, mas três parâmetros
disponíveis.
00:11:28 Agora, vamos para a visualização Parâmetros externos, onde posso gerenciar todos esses
parâmetros juntos.
00:11:34 Você pode ver que o sufixo de endereço também está lá, embora eu tenha removido a
externalização,
00:11:39 mas ainda não foi excluído do fluxo de integração. Vamos usar o Remove Unused para
remover
00:11:46 os parâmetros não utilizados do meu fluxo de integração. Se eu clicar nele, mostra que existem dois
parâmetros não utilizados.
00:11:53 Vamos removê-los. E então vou salvar.
00:11:57 Assim, ao salvar, há também uma verificação de validação que acontece e, em seguida, todos os valores dos
parâmetros também são verificados.

00:12:04 Vamos dar uma olhada na visualização de configuração. Quando clico em Configurar no nível do fluxo de integração,

00:12:08 Posso ver todos os parâmetros com os valores padrão disponíveis lá. Posso passar o mouse sobre ele e ver os
parâmetros mencionados para esse campo.
00:12:18 Se eu for para Mais, vejo todos os parâmetros específicos da etapa do fluxo. Posso escolher o tipo como o tipo de etapa
do fluxo,

00:12:25 e então poderei ver os diferentes parâmetros que estão disponíveis lá. Posso salvá-lo e fechá-
lo.
00:12:31 O mesmo pop-up de configuração também pode ser acessado na visualização do pacote, e aqui também tenho a
mesma experiência.

00:12:39 Agora vamos dar uma olhada na configuração em massa. Deixe-me selecionar dois fluxos de integração, clique em Configurar,

00:12:44 e aqui vou obter os diferentes fluxos de integração que selecionei e as configurações que
posso fazer.
00:12:53 Posso acessar cada um deles, configurá-los e implantar todos ou salvar todos juntos. Isso é
00:12:59 muito útil porque me permite implantar todos os fluxos de integração juntos. Agora vamos ver
00:13:04 como fazer o download. Quando clico em Download, recebo estas duas opções:
00:13:08 "Valores padrão" e "Valores configurados e padrão mesclados". Posso escolher uma dessas
opções.

13
00:13:14 Mas para entender isso, vamos ver um exemplo particular. Vejamos o tamanho da página.
00:13:21 O valor do valor padrão era 200. Vamos dar o valor como 100 agora, o valor configurado.
00:13:26 Vamos ver como isso fica no editor, a visualização Parâmetros Externalizados. Você pode ver que o
valor configurado agora mudou para 100.
00:13:35 Permitam-me também ir para a configuração do adaptador SuccessFactors e ver como fica lá.
00:13:42 Então, se você vir aqui também, o tamanho da página agora mostra o valor configurado como 100. Isso
parece bom.
00:13:49 Agora, se eu voltar para a visualização do pacote e tento fazer o download, o que acontece é que recebo essas duas
opções.

00:13:58 Então, o que significa é que se eu escolher a opção "Somente valores padrão", ele baixará o
fluxo de integração sem o valor configurado,
00:14:07 portanto, neste exemplo, sem que o tamanho da página seja alterado para 100. Portanto, o tamanho da página nesse caso
será 200.

00:14:13 Mas se eu escolher a opção "Valores configurados e padrão mesclados", vou atualizar o tamanho
da página para 100 e fazer o download.
00:14:23 Com isso, chegamos ao final da demonstração. E para resumir o que aprendemos hoje,
00:14:27 externalização é um recurso que permite criar parâmetros, reutilizar esses parâmetros, definir
vários parâmetros para os campos,
00:14:35 e, ao mesmo tempo, permite que você separe sua lógica de negócios da complexidade do fluxo de
integração.
00:14:41 Espero que você tenha tido uma ótima sessão hoje. Desejo a você tudo de bom para as próximas

00:14:45 sessões. Muito obrigado.

14
Semana 2 Unidade 4

00:00:05 Bem-vindo à unidade quatro em sua segunda semana. Meu nome é Marco
00:00:11 Ertel. Faço parte da gestão de produtos do SAP Integration Suite.
00:00:14 E nesta unidade, quero falar sobre o transporte de cenários de integração entre locatários.
00:00:25 Todos nós sabemos que vários inquilinos são necessários
para finalidades diferentes. Por exemplo, em uma arquitetura de três camadas,

00:00:34 você tem um inquilino de desenvolvimento, um inquilino de teste e um inquilino produtivo. Mas

00:00:39 também existem outros cenários em que você tem uma arquitetura de duas camadas,

00:00:43 ou uma arquitetura de cinco camadas e coisas assim. Como é necessário transportar conteúdo
00:00:50 entre esses diferentes locatários, deve haver uma forma de transportá-lo. Portanto, estamos
00:00:55 oferecendo várias possibilidades. Estamos oferecendo mais formas manuais para transportar
00:01:00 conteúdo - esta é a exportação e importação manuais completas, mas também o uso de APIs
00:01:05 OData, que você verá na unidade posterior,
00:01:12 em seguida, uma espécie de forma semi-automática de transporte de conteúdo usando o download do MTAR.

00:01:19 E também duas formas automatizadas, seja com o sistema local, Enhanced Change and
Transport - CTS + -
00:01:26 ou completamente na nuvem com o uso do SAP Cloud Transport Management Service. Deixe-me começar
00:01:36 com a exportação e importação manual. Você pode, com a exportação e importação manual, não apenas
00:01:43 transportar pacotes completos, mas também iFlows individuais.
00:01:49 Se você quiser fazer isso, é muito fácil. Vá para o seu pacote ou para o
00:01:52 seu único iFlow e pressione o botão Exportar.
00:01:56 Você receberá um download no seu disco rígido. Vá até o seu inquilino-alvo,
00:02:01 pressione o botão Importar, selecione o arquivo baixado, importe-o e você está pronto para
00:02:07 prosseguir. Claro, como este é um método manual, não é realmente útil para os transportes do
00:02:13 dia a dia, mas muito útil para configurar novos cenários e coisas assim.
00:02:20 Para todas as outras formas de transporte de conteúdo de um locatário para outro, você deve

00:02:25 primeiro configurar o locatário. Para fazer isso, como administrador do locatário, você vai para a

00:02:31 página Configurações e para a guia Transporte.

00:02:36 Lá você pode selecionar, depois de pressionar o botão Editar,


00:02:39 as diferentes formas de transporte: CTS +, MTAR Download ou Transport Management
Service.
00:02:49 Lembre-se de que essa seleção ou alteração só pode ser feita pelo administrador
00:02:52 do seu locatário de integração. Depois que isso for feito,
00:02:57 você também pode verificar a configuração lá - porque você também deve configurar a paisagem
completa para isso.
00:03:06 Como desenvolvedor, se você tiver que transportar conteúdo de um locatário para outro,

00:03:09 você precisa de uma função adicional que você obtém, o elemento de interface do usuário necessário para que você possa iniciar os
transportes.

00:03:16 Esta é a função, WorkspacePackagesTransport. Sem isso, você não obterá um botão para iniciar um
00:03:21 transporte. Vamos dar uma olhada nessas diferentes maneiras
00:03:28 de transportes automatizados. Deixe-me começar com o modo semiautomático

00:03:33 do download do MTAR. Se o administrador do locatário configurou o modo de transporte para


download do MTAR
00:03:40 e você tem a função WorkspacePackagesTransport, você obterá um novo botão aqui,
00:03:47 que é chamado de Transporte. Todos estes estão disponíveis apenas em um nível de pacote agora. Mais

00:03:53 tarde, também teremos isso em um nível iFlow. Se você pressionar agora o botão Transporte

15
00:04:00 no locatário de origem, você também obterá um arquivo baixado;
00:04:04 nesse caso, não um arquivo ZIP, você obterá o arquivo MTAR.
00:04:07 Isso pode ser usado no CTS + ou no serviço de gerenciamento de transporte na nuvem. Dessas
00:04:16 diferentes maneiras, o administrador pode enviar esse arquivo MTAR
00:04:22 para seu próximo inquilino - neste exemplo, para o inquilino de teste. A próxima maneira é usar a mudança
aprimorada
e Sistema de Transporte, CTS +.
00:04:34 Como este é o sistema executado no local, você precisa de uma maneira de se comunicar
00:04:39 de sua subconta de desenvolvimento BTP para o sistema. Portanto, vemos duas possibilidades: ou
00:04:47 por meio de um proxy reverso, ou nossa recomendação é o uso
00:04:51 do Cloud Connector, com isso, você obtém um túnel seguro
00:04:56 de sua subconta BTP para seu sistema local.
00:05:02 Se um desenvolvedor agora pressiona o botão Pacote de transporte no inquilino de desenvolvimento,

00:05:07 o transporte é iniciado, é enviado por meio do túnel seguro sobre o Cloud Connector para seu sistema CTS
+.
00:05:14 O administrador aqui pode então iniciar o transporte, o que significa que ele é enviado para sua conta de
teste.

00:05:21 E para este push, como se trata de uma conexão de saída, o Cloud Connector não é usado. A
00:05:28 próxima maneira de transportar conteúdo entre diferentes subcontas
00:05:33 é pelo uso do Serviço de Gerenciamento de Transporte em Nuvem. Como isso funciona totalmente na
nuvem,
00:05:42 não há necessidade de um conector de nuvem ou coisas assim. Aqui é mais ou menos o mesmo para o
desenvolvedor:
00:05:49 Pressionar o botão Transporte envia o conteúdo para o Serviço de Gerenciamento de Transporte. Isso significa

00:05:55 que uma solicitação de transporte é criada no Serviço de Gerenciamento de Transporte.

00:06:00 O administrador de lá pode transportar isso, o que significa que o conteúdo é enviado para o próximo em
00:06:06 nosso caso, o locatário de teste. E com isso, deixe-me mostrar como isso fica
00:06:12 no sistema real. Aqui estamos, na página de visão geral do gerenciamento de transporte em nuvem. Aqui

00:06:18 vemos coisas diferentes, como podemos monitorar as importações.

00:06:23 Vemos que 47% conseguiram, mas também alguns foram erros.
00:06:28 E também verificamos se há algum transporte aguardando importação. No momento não há
transportes aguardando importação.
00:06:36 Também podemos dar uma olhada em nossa paisagem. Vemos no meu exemplo, temos um inquilino de desenvolvimento,

00:06:42 um inquilino de teste e um inquilino produtivo. E agora vamos para o nosso inquilino de desenvolvimento.

00:06:50 Mas, primeiro, deixe-me ir para Configurações e, lá, para a guia Transporte.

00:06:57 Como também sou o administrador deste locatário, posso modificar o modo de transporte

00:07:03 pressionando o botão Editar na parte inferior direita. Pressione Editar e, em seguida, você pode selecionar o modo
de transporte.

00:07:12 Como isso já foi feito, não vou alterá-lo, vou pressionar Cancelar aqui.
00:07:17 E você também pode verificar sua configuração. Agora queremos transportar um pacote.
00:07:21 Portanto, vamos ao pacote. Aqui temos o pacote deste curso openSAP, CP10.

00:07:29 Vemos aqui que obtemos o botão para Transporte, pois temos a função
WorkspacePackagesTransport.
00:07:36 Recebemos um pop-up onde podemos inserir um comentário. E ao premir o botão Transporte,
00:07:51 criamos um pedido de transporte no sistema do Serviço de Gestão de Transporte.
00:07:57 Agora vamos voltar para o Sistema de gerenciamento de transporte e na página Visão geral,

16
00:08:02 você vê diretamente que um transporte está esperando para ser importado. Isso é muito fácil. Então

00:08:08 vamos para esta importação em espera, selecione-a e diga Importar.

00:08:14 Também recebemos um pop-up informando que importamos apenas um pacote. Ao pressionar OK, o transporte será iniciado.

00:08:28 Depois de alguns segundos, você verá que o transporte foi bem-sucedido e agora

00:08:32 podemos ir para nosso locatário de teste, recarregar essa página,

00:08:41 e a embalagem que transportamos aparecerá aqui. Como já mencionado, se você já


00:08:49 configurou parâmetros externalizados, eles permanecerão os mesmos após a
00:08:55 importação de um pacote. Então, isso é muito útil,
00:09:00 que você pode configurar parâmetros externalizados, transportar conteúdo após algumas mudanças e

00:09:06 esses valores permanecerem os mesmos. Claro, novos parâmetros devem ser configurados pela primeira

00:09:10 vez, mas eles permanecem os mesmos para cada transporte.

00:09:19 Agora você viu que oferecemos várias maneiras de transportar pacotes e iFlows entre
00:09:26 diferentes locatários - maneiras mais manuais e mais automáticas,
00:09:31 com a exportação e importação manual de pacotes e fluxos de integração, mas
00:09:34 também com o uso da API OData. As formas mais automatizadas
00:09:41 ou da forma semi-automática, começando aqui com o Download do MTAR, ou das formas
totalmente automáticas,
00:09:46 ou com o sistema local, o Change and Transport System aprimorado - CTS + ou também
00:09:51 com o SAP Cloud Transport Management Service. Muito obrigado pela sua atenção.

17
Semana 2 Unidade 5

00:00:05 Olá a todos. E bem-vindo a esta unidade cinco da segunda semana:


00:00:11 Como configurar e consumir conteúdo de integração pré-empacotado. Este slide você ainda deve se
lembrar da primeira semana, unidade um,
00:00:18 a primeira unidade, onde podemos ver a Empresa Inteligente do lado esquerdo, com os quatro mega
processos principais:
00:00:26 as qualidades do pacote, a plataforma de tecnologia de negócios
00:00:30 subjacente e o SAP Integration Suite. E no lado direito,
00:00:34 você pode ver os 4 princípios de integração eletrônica que apoiamos. Na unidade de hoje, vamos nos concentrar no primeiro
princípio-chave de integração,

00:00:44 ou seja, a rica riqueza de conteúdo de integração pronto para uso que é fornecido por meio do SAP
Integration Suite.

00:00:53 Portanto, dentro do SAP Integration Suite, fornecemos mais de 2.000 fluxos de integração,

00:00:59 mais de 2.000 APIs; além de 170 conectores abertos, 140 eventos pré-construídos e assim por diante, o

00:01:08 que reduz significativamente os esforços de implementação de seus cenários de integração.

00:01:15 Então, em média, com cada um dos fluxos de integração, você pode economizar custos por cerca de um
fator de 10,
00:01:22 e o tempo por um fator de cinco. Claro, isso depende da complexidade
00:01:26 dos cenários de integração, mas com esses mais de 2000 cenários de integração pré-enviados com

00:01:33 qualquer licença SAP Integration Suite, os clientes podem reduzir significativamente seus esforços de

00:01:39 implementação. E este conteúdo de integração pré-empacotado

00:01:43 está disponível para os quatro megaprocessos principais - como Lead to Cash, Source to Pay, Hire to
Retire-
00:01:49 mas também para cenários adicionais, como os cenários de eDocuments e assim por diante.

00:01:55 Você pode encontrar o conteúdo pré-empacotado no SAP API Business Hub: o conteúdo pré-
empacotado,
00:02:01 as APIs, os eventos, os adaptadores pré-configurados. Na demonstração, também veremos o SAP API
Business Hub
00:02:10 viver em ação. Aqui neste slide, você pode ver como um exemplo,
00:02:15 a rica riqueza de conteúdo pré-empacotado para cenários de integração não SAP. SAP
00:02:20 Integration Suite também oferece suporte a cenários de integração predefinidos,
00:02:27 fluxos de integração, para a integração de aplicativos não SAP, como nessas três áreas, como
cenários de eDocuments,
00:02:35 integração com autoridades fiscais em todo o mundo - como Espanha, Itália, Brasil e assim por diante.

00:02:43 Portanto, aqui enviamos conteúdo pré-embalado, que se encarrega de fornecer os dados

00:02:48 no formato correto exigido pelas autoridades legais, com os protocolos de comunicação
exigidos
00:02:56 pelas autoridades legais, e assim por diante. No meio, você pode ver outros exemplos
00:03:02 de aplicativos SAP, integrações com aplicativos não SAP. E no lado direito, você também
pode ver os parceiros
00:03:11 que também fornecem cenários de integração para a integração com aplicativos não SAP.
00:03:19 Então agora, como trabalhar com conteúdo de integração pré-empacotado? Eu gostaria de destacar agora
nos próximos slides.
00:03:26 Portanto, a documentação do usuário está sempre vinculada neste slide. Portanto, trabalhar com conteúdo
predefinido é muito, muito fácil.

00:03:33 Então, basicamente, todo o conteúdo que você pode ver no SAP API Business Hub,

18
00:03:38 você também pode encontrar em seu recurso de integração em nuvem do SAP Integration Suite. Então você basicamente faz
login

00:03:44 ao seu recurso de integração em nuvem, navegue até a guia Descobrir,


00:03:48 encontre o cenário de integração, copie o pacote de integração para sua área de design, e então

00:03:54 você pode trabalhar, configurar, implantar o conteúdo pré-empacotado,

00:03:59 e execute seus cenários de integração. Portanto, a primeira etapa seria pesquisar o conteúdo e
00:04:06 copiar o conteúdo de integração da guia Descobrir para a guia Design.
00:04:12 Caso você já tenha copiado o pacote de integração em seu espaço de design, você obterá
um pop-up, onde poderá permitir tanto
00:04:21 para substituir sua cópia existente, você pode criar uma nova cópia ou também pode fechar
00:04:26 a cópia deste pacote de integração específico. Definitivamente, recomendamos trabalhar
00:04:35 com os cenários predefinidos como estão. Não os modifique.
00:04:39 A vantagem disso é que você também recebe atualizações dos cenários de integração.
00:04:45 Portanto, quando a SAP modifica ou atualiza o conteúdo pré-empacotado, você pode receber atualizações do
conteúdo pré-empacotado.

00:04:54 Caso você modifique nossos cenários de integração, você obterá uma janela pop-up onde
00:05:01 confirma que deseja modificar os cenários de integração. que tem a vantagem, é claro,
00:05:05 que você pode modificar esses cenários de acordo com suas necessidades. A desvantagem é que você não
receberá atualizações
00:05:13 que estão sendo feitos pela SAP a partir de então. Então, de maneira ideal, você usaria parâmetros
externos,
00:05:22 onde você pode configurar seus cenários de integração, seus fluxos de integração, sem a necessidade de
modificar o conteúdo pré-empacotado.
00:05:30 Ou você mantém a modificação externa em um fluxo de integração separado,

00:05:36 que você chama por meio de pontos de saída de usuário fornecidos por fluxos de integração fornecidos pelo SAP.

00:05:45 No caso de o SAP atualizar fluxos de integração ou pacotes de integração,

00:05:50 Existem basicamente duas opções do SAP: ou o SAP solicita uma atualização automática dos
pacotes de integração -
00:05:58 por exemplo, no caso de correções de bugs e patches que também precisam ser implantados com urgência
em seus locatários.

00:06:06 Então, aqui, as atualizações são acionadas automaticamente pelo SAP, murcham dentro de um determinado período de tempo ou em
uma data específica.

00:06:15 Você, como cliente, sempre pode substituir essas datas e também acionar a atualização imediatamente.
00:06:21 E a segunda opção seria que SAP apenas forneceria a você uma janela pop-up, Atualização
disponível,
00:06:29 e você escolhe a data e hora em que é mais conveniente para você atualizar o pacote de
integração.
00:06:36 Você recebe atualizações mesmo se alterar o nome do pacote de integração, fluxos de integração
que você modificou -
00:06:45 como neste exemplo - que foram modificados não receberão as atualizações,
00:06:50 mas outros fluxos de integração do pacote de integração que não são modificados ainda receberão a
atualização do SAP.
00:06:59 Como mencionado, uma boa opção para modificar a integração, ou alterar os fluxos de integração, é
trabalhar com parâmetros externos,
00:07:08 como URLs de endpoint, credenciais de usuário, artefatos de segurança,

00:07:13 que você configuraria por meio da opção de configuração e sem a necessidade de modificar seus fluxos de
integração.
00:07:21 E a outra opção é usar saídas de usuário. Eles fornecem a opção de configurar

19
00:07:29 e modelar suas modificações em um fluxo de integração separado,
00:07:34 que é chamado por meio do adaptador ProcessDirect. E no segundo, fluxo de integração separado,
00:07:39 você pode fazer suas modificações - mapeamentos, por exemplo, onde você precisa mapear os dados para
seu endpoint de destino,
00:07:45 que tem, talvez, uma interface modificada não enviada com o conteúdo padrão. Então, esse tipo de
modificação
00:07:53 você também pode fazer em um fluxo de integração separado. E há vários exemplos em que a SAP
00:07:59 envia fluxos de integração com essas saídas de usuário. Você pode vê-lo aqui.
00:08:05 Portanto, é como uma saída de usuário. E neste exemplo, por exemplo, do lado direito,
00:08:10 fornecemos até mesmo um exemplo de fluxo de integração no qual você pode incluir suas próprias modificações.

00:08:19 Então, agora, deixe-me mostrar um exemplo de como você pode trabalhar com conteúdo de integração pré-
empacotado.

00:08:24 Neste exemplo, usaremos a integração com o Salesforce. SAP fornece vários pacotes para
integração com o Salesforce.
00:08:34 Em nosso exemplo, vamos nos concentrar na integração do SAP S / 4HANA com o Salesforce. Vários cenários
são suportados aqui.
00:08:42 Em nosso exemplo, usaremos a sincronização de dados da conta entre SAP S / 4HANA e
Salesforce.
00:08:51 Deixe-me mudar agora para uma demonstração. E agora, podemos ver, a partir do dia da
00:08:58 gravação, a versão beta do SAP API Business Hub com uma nova aparência.
00:09:02 Podemos pesquisar pacotes e adaptadores de integração específicos. Vamos primeiro procurar o
adaptador Salesforce.
00:09:10 Aqui, você pode encontrar uma visão geral de tudo o que o adaptador Salesforce suporta,

00:09:14 quais tipos de APIs, por exemplo, são suportados, onde você pode baixar o adaptador.
00:09:20 Links para as notas de versão são fornecidos aqui no API Business Hub.
00:09:24 E depois de fazer o download do adaptador, também a documentação do usuário é fornecida. Além

00:09:30 do adaptador puro, também, os pacotes de integração podem ser encontrados

00:09:34 no SAP API Business Hub. Aqui, novamente, integração com ERP, com S / 4HANA Cloud e
00:09:40 com SAP S / 4HANA on-premise. Portanto, podemos detalhar o pacote de integração.
00:09:46 Podemos ver na seção Visão geral quais tipos de cenários são suportados,
00:09:53 aqui com este conteúdo de integração pré-empacotado. E então, na área de Fluxo de Integração,
00:09:58 vemos nove fluxos de integração, que são fornecidos prontos para uso
00:10:04 com este pacote de integração. Além disso, dois mapeamentos de valor são suportados.
00:10:10 E também a documentação detalhada do usuário, o guia de configuração, também são fornecidos com este
conteúdo pré-empacotado.

00:10:18 Vamos dar uma olhada em nosso cenário. Portanto, para a replicação dos dados da conta

00:10:23 entre SAP S / 4HANA e Salesforce, extraímos os dados por meio do adaptador OData,
00:10:29 mapeie os dados para o formato exigido pelo aplicativo Salesforce e, em seguida, envie para os dados por meio do
adaptador Salesforce

00:10:38 para o sistema de back-end. Agora, eu mudei os URLs.


00:10:44 Estamos agora no recurso de integração em nuvem do SAP Integration Suite. E
00:10:48 podemos ver o mesmo conteúdo também na área Discover do inquilino.
00:10:53 Procuramos o pacote de integração Salesforce. Vemos a mesma aparência: uma visão
geral dos cenários de integração,
00:11:01 os nove fluxos de integração, os dois mapeamentos de valores. Então, estamos prontos para usar este conteúdo.

00:11:06 E com um simples clique no botão Copiar, podemos copiar este pacote de integração para a área de
design.

20
00:11:16 Na área de design, agora podemos fazer a configuração dos cenários de integração aqui.
00:11:22 Na área de configuração, por exemplo, podemos modificar, ou podemos configurar as credenciais, por
exemplo,
00:11:30 os tokens de segurança, parâmetros adicionais como a versão da API, a URL do endpoint que podemos
configurar aqui

00:11:38 no adaptador do receptor Salesforce. Então, estamos prontos para usar este conteúdo.

00:11:43 Fizemos nossas modificações. Portanto, agora primeiro, é claro, copiamos o pacote de integração para

00:11:51 a área de design. Na área de design, agora fazemos as modificações. Idealmente, fazemos apenas

00:11:57 configurações, configuramos o fluxo de integração,

00:12:03 novamente, o adaptador do receptor. Na área de configuração, inserimos agora esses parâmetros,
00:12:10 ou credenciais de segurança, URLs de endpoint, outros parâmetros externos que precisamos configurar.

00:12:17 Portanto, sem nenhuma modificação, agora estamos prontos para salvar nossas alterações.

00:12:24 Em seguida, implemente também o fluxo de integração no tempo de execução do locatário do Cloud

00:12:31 Integration de nosso sistema SAP Integration Suite. Então, clicamos aqui no botão Implementar, obtemos a

00:12:38 janela pop-up, que a implementação foi acionada. E como uma etapa final, podemos navegar para a área de

00:12:47 monitoramento. Na área de Monitoramento,

00:12:53 podemos monitorar os artefatos implantados, credenciais de segurança e também as mensagens que estão
sendo processadas

00:13:01 por meio do recurso de integração em nuvem. Podemos ver aqui,

00:13:04 uma mensagem foi processada com sucesso. Posso acessar, por exemplo, o log de processamento de
mensagens
00:13:09 com mais informações sobre o processamento de mensagens no locatário do Cloud Integration.
00:13:15 Ativamos o rastreamento, que tem a vantagem de podermos, para cada pipeline,

00:13:21 têm acesso ao cabeçalho da mensagem e até mesmo às informações de carga útil.

00:13:27 Então, se você clicar aqui, por exemplo, nas informações de carga útil, antes da mensagem
00:13:32 está sendo enviado para o sistema Salesforce, podemos ver o cabeçalho da mensagem, as propriedades de
troca,

00:13:37 e as informações de carga útil dos dados que estão sendo enviados ao sistema Salesforce.
00:13:45 Sim, e com isso, estou quase no fim desta unidade. O próximo nível de conteúdo pré-empacotado são as
00:13:55 chamadas linha de negócios, nuvem, soluções específicas do setor,
00:14:00 que, além do Integration Suite, fornece soluções totalmente gerenciadas de ponta a ponta,

00:14:07 onde até mesmo usuários de linha de negócios podem executar cenários de integração como o SAP Ariba Cloud
Integration Gateway

00:14:15 para uma integração estreita entre compradores e vendedores de empresas diferentes,

00:14:20 ou conectividade multibanco para a integração de documentos de pagamento, SAP Information


Collaboration Hub
00:14:27 para uma solução segura de track-and-trace, para a criação de produtos medicinais, por exemplo.

00:14:35 Portanto, essas são soluções ponta a ponta em execução no SAP Integration Suite.

00:14:42 Estamos chegando ao fim desta unidade. Muito obrigado por assistir esta unidade.
00:14:48 Espero que tenha sido útil e você possa ver quanto tempo
00:14:52 e dinheiro que você pode economizar usando o conteúdo predefinido do SAP Integration
00:14:57 Suite, que está disponível para a integração de aplicativos SAP e não SAP.

21
Semana 2 Unidade 6

00:00:05 Olá, bem-vindo à unidade seis. Meu nome é Shilpa Vij,


00:00:09 e nesta unidade, veremos como você pode configurar
mensagens assíncronas
00:00:14 usando SAP Integration Suite. Vamos nos concentrar no adaptador JMS e no adaptador
Kafka
00:00:22 oferecido como parte do Cloud Integration, um recurso do SAP Integration Suite.
00:00:29 Vamos começar. Um adaptador JMS é usado para habilitar mensagens
assíncronas
00:00:37 usando filas de mensagens no Cloud Integration. Com a licença SAP Integration Suite,
00:00:47 você pode selecionar a caixa de seleção para filas de
mensagens ao fornecer seu inquilino SAP Integration Suite
-
00:00:57 ao provisionar seu locatário SAP Integration Suite. E
isso também é explicado por meus colegas Finny

00:01:04 e ele mostrou o provisionamento durante sua demonstração


como parte da semana um, unidade dois.
00:01:14 Vamos ver as vantagens do adaptador JMS. Em muitos casos, os cenários de integração devem ser
desacoplados de forma assíncrona

00:01:28 entre o remetente e o receptor de processamento de mensagens para garantir que, em caso de falha temporária,

00:01:38 uma nova tentativa é feita a partir do sistema de integração em vez do sistema emissor.

00:01:47 Em segundo lugar, isso pode ser alcançado usando JMS


filas para armazenar temporariamente a mensagem no sistema Cloud Integration
00:02:01 se o sistema receptor não puder ser alcançado, tente novamente a partir daí.
00:02:11 Você pode definir um período de expiração adequado ao seu cenário. O valor padrão é 90 dias, o que
00:02:19 significa que após 90 dias, todas as mensagens que não foram entregues
00:02:26 dentro deste período será excluído da fila. O terceiro, Cloud Integration usa SAP Event

Malha
00:02:36 para enfileiramento de alto desempenho. Como uma nota ou um ponto a ser observado aqui seria,

00:02:46 você tem uma certa quantidade de recursos JMS e precisa ficar de olho nos processos
paralelos
00:02:53 já que esses recursos são compartilhados em todos os seus fluxos de integração.

00:03:04 O adaptador JMS pode ser configurado como receptor e canal emissor para receber as mensagens de
entrada
00:03:12 e armazená-los na fila JMS e acionar a mensagem da fila JMS para o backend do
00:03:20 receptor ou outro fluxo. Para o canal receptor,
00:03:29 os seguintes são os pontos a serem observados: Propriedades não são persistentes por padrão

00:03:36 para evitar problemas de tempo de execução se as propriedades forem muito longas. O tratamento da transação pode ser
configurado na guia Processamento.

00:03:46 Alguns pontos para o canal emissor seriam: Você pode configurar o nome da fila para as
filas JMS
00:03:55 de quem você deseja pesquisar as mensagens. Além disso, o número de processos simultâneos é
00:04:04 definido como um por padrão e só deve ser aumentado
00:04:09 se mais processamento paralelo for necessário. No canal emissor JMS,
00:04:17 você também pode configurar o tratamento de novas tentativas. Configure o intervalo de repetição

00:04:27 conforme necessário para seu cenário de integração - o valor padrão é um minuto.

22
00:04:36 Para verificar o processamento em detalhes, você pode usar as ferramentas de monitoramento fornecidas pelo Cloud
Integration.

00:04:46 O primeiro pode ser Gerenciar Integração


Contente. Na visão Operação em Gerenciar Conteúdo de Integração,
00:04:56 você pode encontrar os fluxos de integração implementados e seus status. Na área de detalhes do
00:05:05 status, você pode encontrar o status da pesquisa e os detalhes sobre o consumo atual.
00:05:14 A segunda seria: O processamento de mensagens pode ser verificado em detalhes na seção Monitorar o
processamento de mensagens.

00:05:28 Você pode selecionar seu fluxo de integração e verificar o status de processamento das
mensagens.
00:05:34 Em caso de falha ao enviar para o sistema receptor,
00:05:39 as mensagens enviadas irão para o status Repetir. A mensagem será repetida conforme
configurada
00:05:49 no canal emissor JMS. As informações detalhadas do erro e as novas tentativas
00:05:57 estão disponíveis no link Log de processamento de mensagens. Seguindo em frente, você pode monitorar as filas

00:06:09 navegando para Gerenciar Filas de Mensagens se houver problemas durante o processamento e
00:06:16 sua mensagem não for recebida no backend do destinatário.
00:06:23 O status das mensagens é Tentar novamente e as mensagens podem ser verificadas no monitor
de fila
00:06:31 na seção Gerenciar lojas na visualização Operações. Este monitor mostra todas as filas existentes em
seu
inquilino
00:06:44 com suas mensagens armazenadas. Selecione sua fila para verificar as mensagens

00:06:51 contidos na fila. Os recursos JMS também podem ser monitorados


00:07:00 no Monitor de Filas. Na seção Gerenciar Armazenamento na visualização Operações, se os

00:07:07 recursos JMS forem críticos, a mensagem aparecerá em amarelo, o que é uma mensagem de

00:07:17 aviso. Se os recursos JMS estiverem esgotados, aparecerá uma mensagem de erro em

00:07:22 vermelho. Vamos passar para os cheques.

00:07:32 Portanto, as três principais verificações a serem lembradas seriam as primeiras: verificações de consistência.

00:07:39 Filas não utilizadas que não contêm mensagens e não são referidas por um fluxo de integração em tempo de
execução

00:07:47 será excluído automaticamente. E a segunda: Onde-usado para entender em


00:07:53 quais filas de fluxo são usadas. Se uma fila específica não for mais necessária,
00:08:00 você pode excluir a fila manualmente. Terceiro número: se o limite do número de filas for
atingido,
00:08:11 você pode verificar as filas não utilizadas clicando na opção Verificar e excluindo as filas não
utilizadas.
00:08:25 Vamos passar para o adaptador Kafka. Para fortalecer ainda mais as mensagens assíncronas,
00:08:30 o adaptador Kafka foi lançado recentemente em março de 2021 como parte do recurso de integração em
nuvem

00:08:38 do SAP Integration Suite. Vamos começar com algumas noções básicas sobre o Apache
Kafka.
00:08:46 É uma plataforma de streaming de eventos. Kafka é executado em um cluster de um ou mais servidores -

00:08:54 que são corretores - e todos os tópicos e partições são distribuídos e replicados entre esses
corretores.
00:09:03 O adaptador do remetente Kafka no Cloud Integration busca lotes de registros Kafka de um ou mais
tópicos,
00:09:13 e o adaptador do receptor Kafka envia registros ou lotes Kafka
00:09:19 para exatamente um tópico ou partição. O adaptador do receptor Kafka pode agrupar registros

23
00:09:30 para otimizar o tráfego da rede. O envio em lote geralmente acontece durante situações de alto

00:09:38 carregamento, pois o produtor não espera indefinidamente por mensagens adicionais.

00:09:46 Portanto, a seguir estão as vantagens do adaptador Kafka: o primeiro, Cloud Integration, permite
00:09:55 definir o número de consumidores paralelos. Suporta retenção baseada em disco -
00:10:05 isso significa que os consumidores não são obrigados a
consumir mensagens na hora e em tempo real,
00:10:14 para que o risco de perda de dados seja minimizado. Em terceiro lugar, ele fornece streaming de alto
desempenho.

00:10:24 Um ponto a ser observado aqui, ou um ponto muito importante aqui, seria:
00:10:28 o adaptador JMS, que vimos antes, é um conector interno do Cloud Integration,
00:10:34 enquanto o adaptador Kafka se conecta a um broker externo.
Vamos passar para uma demonstração.
00:10:45 Veremos o adaptador Kafka em ação. E na demonstração, usaremos o Confluent
00:10:52 como o corretor Kafka externo. Vamos configurar um receptor Kafka
00:10:57 e o adaptador do remetente no Cloud Integration. Por fim, executaremos este cenário enviando uma solicitação HTTP

00:11:06 e verifique o status na visualização Operação. Portanto, este é meu corretor Confluent, um corretor externo.

00:11:19 Forneci o nome de usuário e a senha. E você pode ver, este é o meu cluster.
00:11:26 Vou apenas mostrar os tópicos, ir para Tópicos, e esses são os tópicos aqui que você pode
00:11:34 configurar. Vou apenas abrir um dos tópicos que já criei.
00:11:38 Sim, e você pode ver o tópico Kafka_release_demo_10 que estarei usando,
00:11:43 e as configurações que você pode ver aqui. Temos 10 partições e outros detalhes podem ser
vistos.
00:11:49 Vou passar para o meu design e abrir meus adaptadores. O pacote de integração - esses são meus
artefatos,
00:11:56 e você pode ver que eu já criei um emissor e um receptor Kafka, vou
00:12:02 apenas abrir o produtor. E aqui, é um iFlow simples.
00:12:07 Kafka é o adaptador do receptor e nós apenas enviamos os detalhes do HTTPS.
00:12:13 As conexões são mostradas aqui e temos o host do meu corretor externo.
00:12:20 E então esta é a URL do host para o corretor Confluent. Temos os detalhes de autenticação. Vou apenas
00:12:28 clicar em Editar para mostrar a você. Temos SASL e autenticação baseada em certificado de cliente. Em
00:12:36 seguida, nos conectamos com o mecanismo TLS e SASL. Você pode ver o nome da credencial aqui, e essas
00:12:47 credenciais podem ser implantadas em meu locatário do Cloud Integration.
00:12:54 Nos materiais de segurança, já implantei isso.
00:13:01 Vou voltar para o meu canal do receptor
Kafka e, sim, aqui.
00:13:10 Um ponto muito importante aqui é que precisamos que um certificado também seja implantado,

00:13:14 precisamos de um hospedeiro para isso. Vá para a visualização Operações e clique em Teste de

00:13:19 Conectividade, coloque o host para o broker e aqui você vai com o certificado.

00:13:27 Basta enviar a solicitação, e você pode baixar o certificado aqui.


00:13:31 E também carregue o certificado nos keystores. Eu já fiz isso aqui. sim. Agora
00:13:41 voltando, irei para a guia Processamento
00:13:46 e você pode ver os detalhes aqui. Eu apenas clico em Editar.
00:13:51 Aqui, você pode definir o seu tema e, em seguida, o agradecimento. Este tópico
00:13:58 pode ser extraído do cabeçalho e, em seguida, dos outros campos,
00:14:04 você também pode ter mensagens descompactadas. Você pode ativar o processamento em lote, o

00:14:13 tamanho do lote e assim por diante. O reconhecimento você pode ver aqui.

24
00:14:38 Você pode habilitar o processamento em lote e também o tamanho do lote.

00:14:45 Continuando, temos o Kafka como canal emissor, acabei de colocar um roteador para o meu cenário aqui,

00:14:55 e a guia Conexão permanece a mesma. Temos o processamento,


00:15:02 e acabei de implantar o cenário. Aqui, você pode ver o consumidor paralelo em
00:15:07 10, e esta é a mesma forma como o definimos no corretor Confluent.
00:15:12 Você pode ver aqui: 10 consumidores em consumidores. E em Cloud Integration, nós definimos isso aqui.

00:15:19 Em seguida, clicarei em Editar e mostrarei o tratamento de erros. Você pode configurar o tratamento de
erros,

00:15:26 Tente novamente as mensagens com falha e ignore as mensagens com falha aqui. Acabei de implantar o cenário

00:15:32 e irei acionar minha solicitação HTTP do JMeter. Sim feito. Vamos ver na visualização Operações, apenas
atualize-a.
00:15:43 E sim, ambos os iFlows são executados: produtor e consumidor, e você pode ver a mensagem
Concluído.
00:15:49 Em resumo, você aprendeu que os adaptadores JMS e Kafka podem ser configurados para
habilitar mensagens assíncronas.
00:15:59 As filas precisam ser provisionadas para o adaptador JMS ao usar o SAP Integration Suite.
00:16:08 Terceiro, as filas e mensagens JMS podem ser
monitoradas em um locatário do Cloud Integration.
00:16:18 Espero que você tenha gostado da unidade. E na próxima unidade,

00:16:24 Vou falar sobre a implementação da integração


orientada a eventos usando SAP Integration Suite.
00:16:32 Até então, tchau.

25
Semana 2 Unidade 7

00:00:05 Olá, bem-vindo à unidade sete. Meu nome é Shilpa Vij.


00:00:08 E nesta unidade veremos como SAP Integration Suite ajuda a alcançar a integração orientada a eventos

00:00:15 e facilitar a reação em tempo real consumindo eventos de um sistema e acionando uma
integração predefinida
00:00:24 ou evento em outro. Vamos começar esta unidade entendendo um pouco do AMQP,

00:00:31 Protocolo de enfileiramento de mensagens avançado. É um protocolo de camada de aplicativo padrão aberto

00:00:37 para middleware orientado a mensagens. Ele cria interoperabilidade entre clientes

00:00:43 e corretores que são middleware de mensagens. Ele fornece entrega de mensagens segura e de alta
qualidade
00:00:49 entre aplicativos e processos com uma confirmação. Por último, mas não
00:00:54 menos importante, funciona bem em ambientes multi-cliente
00:00:58 e fornece um meio para delegar tarefas e fazer com que os servidores lidem com solicitações imediatas.
00:01:08 Cloud Integration, um recurso do SAP Integration Suite, pode se conectar a sistemas de mensagens
externos
00:01:15 usando o protocolo AMQP, consuma mensagens ou eventos usando o adaptador do emissor AMQP ou

00:01:22 armazene mensagens ou eventos no intermediário de mensagem usando o adaptador do receptor AMQP. Para

00:01:30 ser capaz de configurar um agente de mensagens, você precisa se conectar a filas

00:01:34 ou tópicos no agente de mensagens. Isso precisa ser feito no sistema de mensagens
00:01:39 com as ferramentas de configuração fornecidas pelo sistema de mensagens. Nesta unidade, peguei um
exemplo de SAP Event Mesh
00:01:50 como corretor de mensagens. Resumindo, os seguintes são os benefícios:

00:01:55 Ele se conecta a sistemas de mensagens externos usando o protocolo AMQP.

00:02:00 Ele oferece suporte à conectividade para sistemas de mensagens no local usando o serviço de conectividade SAP,

00:02:06 processamento exclusivo, em ordem, usando o corretor AMQP. O adaptador AMQP é usado para fluxo para
comunicação do sistema externo

00:02:17 e também usa recursos baseados no corretor externo.


00:02:22 O adaptador receptor AMQP pode ser usado para enviar mensagens do Cloud Integration
00:02:27 para filas ou tópicos em um sistema de mensagens externo. Para o receptor AMQP, apenas a carga útil é
transferida
00:02:37 e nenhum cabeçalho e nenhuma propriedade são trocados. O manuseio de transações não é suportado,

00:02:43 já que o corretor não é um componente interno do Cloud Integration. O adaptador do remetente AMQP pode ser
usado para consumir mensagens

00:02:52 em Cloud Integration a partir de filas. Existem diferentes opções disponíveis


00:02:57 para manipular erros durante o processamento e configurar a nova tentativa de mensagens consumidas no
adaptador do emissor AMQP.

00:03:07 Dito isso, existem vários provedores de implementações de sistemas de mensagens disponíveis. A
00:03:15 maioria deles suporta AMQP 1.0 e pode ser conectado usando o adaptador AMQP. Os sistemas de
00:03:22 mensagens mais usados que são suportados pelo Cloud Integration
00:03:25 são SAP Event Mesh, Microsoft Azure Service Bus, Solace PubSub +, Apache Qpid Broker-J,

00:03:35 Apache ActiveMQ5 e Apache ActiveMQ Artemis. Assim que a mensagem estiver disponível
00:03:48 na fila de processamento em um sistema de mensagens, a mensagem é consumida pelo Cloud
Integration.
00:03:53 Se houver um erro durante o processamento, o processamento falhará e uma nova tentativa imediata será
executada.

26
00:04:00 O adaptador fornece as informações sobre o contador de novas tentativas usando cabeçalhos de mensagens, o mesmo
que no adaptador GMS,

00:04:08 que pode ser acessado em tempo de execução para reagir. Deixe-me guiá-lo pela ferramenta de
conectividade local.
00:04:17 Com a versão 1.1 do adaptador AMQP, o emissor AMQP e o adaptador receptor no Cloud
Integration
00:04:24 oferece suporte à conexão com servidores AMQP locais usando o serviço SAP Connectivity.

00:04:31 Meu colega Axel já apresentou o Cloud Connector na primeira semana, unidade quatro. Ao
00:04:37 configurar um sistema de nuvem para local, um mapeamento no serviço de conectividade SAP
00:04:44 define o servidor AMQP virtual e a porta que você deseja expor para sua conta SAP BTP.
00:04:50 Ele será reutilizado posteriormente na configuração do adaptador AMQP. Agora você está pronto para configurar um
receptor AMQP

00:04:58 ou adaptador do remetente no Cloud Integration, conectando-se a um servidor AMQP local,


00:05:03 definindo o tipo de proxy como local. Existem diferentes opções para monitorar os fluxos de integração,

00:05:15 as conexões com o sistema de mensagens e a mensagem processada.


00:05:18 O primeiro: Monitor de Conteúdo de Integração. Depois que o fluxo de integração é implantado,

00:05:24 ele pode ser encontrado no monitor Gerenciar Conteúdo de Integração. Lá você pode verificar o status do
fluxo de integração.
00:05:33 Na área Detalhes do status, você pode encontrar o status e os detalhes
00:05:37 sobre o consumo atual. Se houver um erro ao consumir mensagens
00:05:41 enquanto o adaptador do emissor AMQP, o erro seria mostrado aqui para o respectivo fluxo de integração.

00:05:48 Em Polling Information, o status do consumo é mostrado como Failed.


00:05:54 Se o erro estiver voltando do proxy SOCKS5 do serviço SAP Connectivity,
00:05:59 você pode verificar o monitor e o arquivo de log no serviço SAP Connectivity para obter mais detalhes.

00:06:07 O segundo: Monitor de processamento de mensagens. As mensagens do processo podem ser monitoradas no Monitor de
processamento de mensagens.

00:06:15 Se houver um erro no envio de mensagens para um receptor AMQP específico, o erro será mostrado aqui.

00:06:22 O Messaging System Monitor, o terceiro, filas, tópicos e as mensagens no sistema de


mensagens
00:06:29 pode ser monitorado usando as ferramentas de monitoramento do sistema de mensagens.

00:06:34 Vamos passar para a demonstração. Deixe-me explicar o cenário de demonstração.

00:06:41 Digamos que sua organização use SAP SuccessFactors como o sistema central de RH.
00:06:47 Como parte de sua transformação digital, você deseja automatizar o processo de contratação. Por
00:06:52 exemplo, primeiro você deseja enviar um e-mail de boas-vindas ao recém-contratado. Em segundo
00:06:59 lugar, você gostaria de adicionar o novo funcionário ao canal Team Slack
00:07:04 e gostaria de apresentá-lo à equipe. Terceiro, você também pode replicar os dados para outros
00:07:10 sistemas de terceiros para gerenciar os benefícios se sua organização estiver usando os mesmos.
00:07:17 Depois que a nova contratação é criada no SAP SuccessFactors, ele publica o evento com a carga útil
necessária
00:07:25 ao tópico no SAP Event Mesh via APIs REST, e uma vez que a carga útil do evento está disponível no
SAP Event Mesh,
00:07:32 O Cloud Integration, um recurso do SAP Integration Suite, o consome via AMQP ou
00:07:38 webhooks em tempo real. O Cloud Integration executa a lógica de negócios desejada
00:07:43 e se conecta a sistemas de terceiros, como e-mail, Slack e assim por diante, por meio de conectores abertos,

27
00:07:50 mais uma capacidade do SAP Integration Suite. Portanto, este é o meu sistema SuccessFactors,
00:07:56 e já configurei o novo evento de publicação de contratação por meio do SAP SuccessFactors
Integration Center.
00:08:03 Esta é a minha malha de eventos SAP e tenho três filas inscritas no mesmo tópico.

00:08:13 E este é meu locatário do Cloud Integration. Tenho quatro iFlows.


00:08:18 O primeiro, o que ele fará é uma solicitação HTTP, enviará para o Open
00:08:27 Connectors. E a segunda, vou apenas mostrar a configuração dos conectores
00:08:31 abertos. E aqui temos o URL base do Open Connectors. O segundo iFlow,
00:08:37 que eu tenho, os novos critérios de contratação, aqui temos do lado do remetente, temos o adaptador
AMQP.
00:08:45 E então vou mostrar rapidamente as propriedades do AMQP. Vou passar para Conexões. Você pode

00:08:52 ver que o host é meu sistema de mensagens corporativas SAP Event Mesh,

00:08:59 e a autenticação de caminho e as credenciais também são implantadas para SAP Event Mesh.
00:09:06 No processamento, tenho meu nome de fila aqui. Em seguida, passo rapidamente para o outro iFlow: este é o
canal Slack de terceiros.
00:09:17 E então eu tenho um e-mail. Então aqui eu tenho o adaptador principal no lado do
00:09:24 receptor e vamos ver meus conectores abertos. O que fiz é que já configurei meu
00:09:30 conector Slack. Em seguida, o terceiro, Bamboo HR.
00:09:36 Aqui, esta é a minha caixa de correio, onde receberei o e-mail e este é o meu canal do Slack,
00:09:41 onde, quando a nova contratação for adicionada, receberei a notificação.
00:09:46 E este é meu sistema de terceiros, sistema de RH. Continuando, adiciono isso ao sistema
SuccessFactors.
00:09:57 Vou adicionar rapidamente um novo funcionário, preencher os detalhes. E então, Sunny Kapoor é meu novo contratado.

00:10:09 O ID da pessoa é 216, um ponto a ser observado. E rapidamente preencherei o formulário do funcionário, o endereço

00:10:18 de e-mail e os demais detalhes. Eu salvei rapidamente

00:10:26 e continue aqui. Uma nova contratação já foi criada,


00:10:37 você pode ver, e publicou um evento no SAP Event Mesh.
00:10:41 E podemos ver agora o locatário do Cloud Integration. E eu veria as mensagens. Você
00:10:48 pode ver, recém-concluídos, dois deles. Vamos aguardar o terceiro, o Slack Team, sim
00:10:54 está feito, o melhor processo de integração.
00:10:59 E sim, você pode ver o e-mail do novo contratado: Bem-vindo, Sunny.
00:11:03 E então também veríamos o canal Team Slack. Aqui Sunny Kapoor é adicionado e uma mensagem
00:11:11 de boas-vindas é enviada. Este é o meu sistema de terceiros.
00:11:15 Aqui, o ID 216 também é adicionado e aqui posso gerenciar os benefícios, se desejar.
00:11:25 Em resumo, você aprendeu o básico do protocolo AMQP e a configuração do processamento de mensagens
assíncronas
00:11:32 usando adaptador AMQP e integração em nuvem. Ele oferece suporte a vários provedores de sistemas

00:11:39 de mensagens externos, conectando-se a um servidor AMQP local por meio do SAP Connectivity

00:11:44 Service. Por último, mas não menos importante, tente novamente a configuração,

00:11:49 e diferentes opções para monitorar os fluxos de integração e a mensagem processada. Espero
00:11:54 que tenham gostado da sessão. Na próxima unidade, meu colega Axel falará sobre o
00:11:58 desenvolvimento do fluxo de integração empresarial. Tchau tchau.

28
www.sap.com/ficha de contato

© 2021 SAP SE ou empresa afiliada da SAP. Todos os direitos reservados.


Nenhuma parte desta publicação pode ser reproduzida ou transmitida de qualquer forma ou para qualquer finalidade sem a permissão expressa da SAP SE ou de uma empresa afiliada da SAP.

As informações aqui contidas podem ser alteradas sem prévio aviso. Alguns produtos de software comercializados pela SAP SE e seus distribuidores contêm componentes de software de propriedade de outros fornecedores de software. As
especificações nacionais do produto podem variar.

Esses materiais são fornecidos pela SAP SE ou por uma empresa afiliada da SAP apenas para fins informativos, sem representação ou garantia de qualquer tipo, e a SAP ou suas empresas afiliadas não se responsabilizam por erros ou
omissões em relação aos materiais. As únicas garantias para os produtos e serviços da SAP ou de empresas afiliadas da SAP são aquelas estabelecidas nas declarações de garantia expressa que acompanham tais produtos e serviços, se
houver. Nada aqui deve ser interpretado como constituindo uma garantia adicional.

Em particular, a SAP SE ou suas empresas afiliadas não têm nenhuma obrigação de seguir qualquer curso de negócios descrito neste documento ou qualquer apresentação relacionada, ou de desenvolver ou liberar
qualquer funcionalidade aqui mencionada. Este documento, ou qualquer apresentação relacionada, e a estratégia da SAP SE ou de suas empresas afiliadas e possíveis desenvolvimentos futuros, produtos e / ou
direções de plataforma e funcionalidade estão sujeitos a alterações e podem ser alterados pela SAP SE ou suas empresas afiliadas em a qualquer momento, por qualquer motivo, sem aviso prévio. As informações
neste documento não são um compromisso, promessa ou obrigação legal de entrega de qualquer material, código ou funcionalidade. Todas as declarações prospectivas estão sujeitas a vários riscos e incertezas
que podem fazer com que os resultados reais sejam materialmente diferentes das expectativas.

SAP e outros produtos e serviços SAP mencionados neste documento, bem como seus respectivos logotipos, são marcas comerciais ou marcas registradas da SAP SE (ou de uma empresa afiliada da SAP) na Alemanha e em outros
países. Todos os outros nomes de produtos e serviços mencionados são marcas comerciais de suas respectivas empresas. Verwww.sap.com/trademarkpara obter informações adicionais sobre marcas registradas e avisos.

Você também pode gostar