Escolar Documentos
Profissional Documentos
Cultura Documentos
COLABORATIVO
TM Cobot
FIT-F.24.01-02 Rev.C
Apostila do Aluno
Estevão José dos Santos – Engenheiro I
Renan Baptista Abud – Engenheiro I
Thayná A. Rodrigues de Almeida – Assistente de Engenharia
Jailson Bina da Silva – Engenheiro I
Autores da apostila
FIT-F.24.01-02 Rev.C
Autores/Instrutores
FIT-F.24.01-02 Rev.C
APRESENTAÇÃO
Boa Leitura !!
FIT-F.24.01-02 Rev.C
SUMÁRIO
1. Visão Computacional com TMVision .............................................. 6
1.5 Exercício.................................................................................... 15
1.9 Exercício.................................................................................... 23
Situação Problema................................................................................. 35
FIT-F.24.01-02 Rev.C
Conclusão .............................................................................................. 36
Referências............................................................................................ 37
FIT-F.24.01-02 Rev.C
1. Visão Computacional com TMVision
1.1 Introdução
Todos os robôs da série TM possuem uma câmera integrada com sistema
de iluminação próprio, montado próximo ao End Effector, podendo ser utilizada
como uma ferramenta para alinhamento em tarefas de manipulação de peças.
A câmera integrada, Figura 1, possui 5 MP, com resolução configurável,
o ponto de referência, conhecido como ponto 0, está localizado a 49 mm da
estrutura de fixação de ferramentas, um pouco atrás do plástico protetor da lente.
Já a distância de operação geralmente é localizada entre 100 e 300 mm após
esse ponto de referência, levando em consideração uma distância segura do
ponto de contado da garra com o ponto final da câmera.
Além da câmera interna, até duas câmeras Basler GigE, Figura 2, também
podem ser utilizadas, pois a caixa de controle do robô, ou a Control Box, possui
duas portas Ethernets dedicadas com PoE para alimentação dessas câmeras.
Mais informações podem ser encontradas no manual TMvision Software Manual.
FIT-F.24.01-02 Rev.C 6
Figura 2 – Câmeras Basler com padrão GigE Vision. Fonte: Alta Vision.
FIT-F.24.01-02 Rev.C 7
Figura 4 - Bloco Visão. Fonte: Tmflow.
FIT-F.24.01-02 Rev.C 8
Figura 6 – Criando um Vision Job. Fonte: Tmflow.
Existem quatro tarefas que podem ser escolhidas no menu Task, como
observado na Figura 8:
FIT-F.24.01-02 Rev.C 9
• Câmera Kit: utilizada para ajustar a imagem, alterar o foco, brilho e
angulação.
• Calibration: usado para calibrar os parâmetros que o robô irá depender
usar em conjunto com a câmera, como tarefas do tipo Fixed-Point.
• Task Designer: é utilizado para editar uma tarefa.
• Hard Drive Settings: usado para configurar o disco utilizado para
armazenar as imagens que forem salvar pela câmera.
FIT-F.24.01-02 Rev.C 10
1.3 Camera Kit
FIT-F.24.01-02 Rev.C 11
do plano, sendo necessário a utilização do Diceboard, semelhante a um tabuleiro
de xadrez, que usaremos durante a calibração, com isso, o robô irá se mover de
uma posição que se encontra, para tentar ajustar e compensar a inclinação,
enquanto mantem o Diceboard no campo de visão, essa calibração pode ser
feita de forma automática, ao clicar em Auto-Tilt, que irá iniciar o processo após
a confirmação do botão PLAY, mas poderá ser interrompida a qualquer momento
com o uso do botão STOP.
FIT-F.24.01-02 Rev.C 12
Pontos que deverão ser considerados para iniciar a calibração: É
necessário que uma seção 4x4 do xadrez esteja visível pela câmera, que o
campo de visão não seja maior que a placa de calibração, que a câmera esteja
posicionada no mínimo a 70mm da placa, tendo um limite máximo de 400mm
para a placa maior e 200mm para a placa menor.
Ao criar um Vision Job, trabalho de visão, temos acesso ao painel de
Calibração ao selecionar a Task Calibration como na Figura 11.
FIT-F.24.01-02 Rev.C 13
correção de inclinação novamente se necessário, a posição que a
câmera iniciar o processo de calibração será considerado a posição
inicial. Após esse passo o VPoint também será definido.
3. Calibração da área de trabalho, após a confirmação pelo botão Start o
robô irá capturar fotos em distintos ângulos da placa de calibração,
para calcular a posição relativa da área de operação.
4. Salvar resultados do novo espaço de trabalho, assim que acurácia for
verificada, salve os resultados de calibração como um arquivo para
poder acessar em trabalhos de pontos fixos.
FIT-F.24.01-02 Rev.C 14
1.5 Exercício
Implementando os conhecimentos, realize o processo de calibragem
automática.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 15
O Usuários poderá optar por desenvolver uma aplicação escolhendo os
recursos que antederem a necessidade.
Ao escolher uma das aplicações para o uso devido leve em consideração:
Necessita
Disposição Sistema Base de
Aplicação Workspace
Adequada referência
configurado?
Câmera acoplada no
Baseado na posição
Fixed braço / Câmera não Sim
do objeto
acoplada no braço
Câmera acoplada no Baseado na posição
Servoing Não
braço do robô
Câmera acoplada no
AOI-only braço / Câmera não Não Não aplicável
acoplada no braço
Câmera acoplada no
Vision OI braço / Câmera não Não Não aplicável
acoplada no braço
Landmark Câmera acoplada no Baseado na posição
Não
Alignment braço do landmark
Object-based Câmera acoplada no Baseado na posição
Não
Calibration braço do objeto
Câmera acoplada no
Smart-Pick Não aplicável Não aplicável
braço
FIT-F.24.01-02 Rev.C 16
Figura 14 - Ferramentas de manipulação de imagem. Fonte: Tmflow.
1.7.1 Enhance
Função Descrição
Melhoria de Contraste Ajusta o contraste da imagem capturada,
pode ou não aumentar a chance de
detectar um objeto.
FIT-F.24.01-02 Rev.C 17
Extração de Plano de Cor Extrai um plano de cor da imagem ou
saturação. Também converte o plano
RGB para HSV. Exemplo na Figura 16
FIT-F.24.01-02 Rev.C 18
1.7.2 Find
FIT-F.24.01-02 Rev.C 19
imagem (canto superior
esquerdo).
Em relação às
Marca Fiduciária Usa dois recursos óbvios coordenadas X, Y
Correspondente no e ângulo de rotação R da
objeto para comparar referência inicial da
correspondência. imagem (canto superior
esquerdo).
1.7.3 Identify
FIT-F.24.01-02 Rev.C 20
1.8 Visual Servoing (Servo Visão)
Servo visão, Figura 19, é uma operação adequada somente para a
câmera que está acoplada ao braço do robô, não podendo ser utilizada com
câmeras externas. O alinhamento com o objeto será mantido através da
aproximação gerada pelos sistemas de coordenadas da imagem, o workspace
não é necessário que esteja calibrado para essa operação, porém, o diceboard
pode ajudar na calibração inicial de alinhamento do nível.
FIT-F.24.01-02 Rev.C 21
um algoritmo de Find, para que possamos obter uma função de comparação de
imagem.
Após o algoritmo Find tenha sido determinado, o sistema TMvision irá
comparar o que está no campo de visão com o padrão estabelecido pelo
algoritmo Find selecionado, o bloco retorna à pontuação de similaridade, o
usuário poderá definir valores de thresholds para imagens que possuem o
mesmo objeto.
Saia e retorne ao flow chart quando tiver terminado de configurar o bloco
de visão.
Se a configuração de servo visão tenha sido definida, clique em Start
Servoing e aperte o botão “+” do robô, podendo visualizar na tela o inicio do
processo.
Poderá ser necessário estabelecer um Stop Criterion, Figura 20, critério
de parada, indicando quando o movimento dos servomotores deverão
interrompidos quando completados.
FIT-F.24.01-02 Rev.C 22
• Distance, ou distância, indica qual a distância de operação entre o
braço e o objeto encontrado que o sistema tenta alcançar.
• Angle, determina o range da diferença angular entre o braço e o objeto
encontrado que o sistema tenta compensar.
• Depth Compesation, quando ou não habilitar a compensação de
profundidade baseada na escala de valores do objeto encontrado.
1.9 Exercício
Implementando os conhecimentos adquiridos com os blocos Visual
Servoing, realize uma operação de pick and place com servo visão.
Nesse exercício, você pegará a peça no ponto A e levará até o ponto B,
caso não haja nenhuma peça no ponto A, o robô colaborativo deve entrar em
modo pausa.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
1.10 Exercício
Implementando os conhecimentos adquiridos com os blocos Visual
Servoing, realize uma operação de servo visão.
Com base no exercício anterior, edite o programa para utilizar subflow e
thread.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 23
1.11 Exercício
Implementando os conhecimentos adquiridos com os blocos Visual
Servoing, realize uma operação de servo visão.
Nesse exercício, a esteira transportadora está em movimento, quando a
peça for detectada pelo sensor no ponto A, a esteira deve ser desligada. Uma
vez ponto A, o cobot deve leva-lá até o ponto B.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser, ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 24
Figura 21 - Janela do Fixed Point. Fonte: Autoral.
FIT-F.24.01-02 Rev.C 25
Snap-n-go Melhore a eficiência tirando instantâneos simultaneamente e
mantendo o fluxo para economizar tempo para tarefas não
visuais que se seguem. Após a captura da imagem, o sistema irá
para o próximo nó e manterá o processamento da imagem em
segundo plano do fluxo. Observe que quando os processos após
o nó Vision exigirem o resultado do nó Vision e o processamento
da imagem de fundo ainda estiver em execução, haverá
condições e retornos da seguinte forma:
• Se o próximo nó exigir os parâmetros do resultado, como
as variáveis booleanas Done e Pass geradas pelo trabalho
Vision, os usuários terão que editar um nó If para que o
sistema determine como proceder.
• Se o próximo nó também for um nó do Vision que inclui
um ponto base do Vision ou um trabalho do Vision, o fluxo
não continuará até que seja concluído com o último nó do
Vision.
FIT-F.24.01-02 Rev.C 26
Depois que os padrões de correspondência forem determinados, o
TMvision comparará a imagem no campo de visão atual com a que está
armazenada, para calcular os recursos de forma e identificar diferenças, bem
como fornecer pontuações para correspondência. Os usuários podem configurar
limites para determinar se as duas imagens são o mesmo objeto.
1.13 Exercício
Implementando os conhecimentos adquiridos com os blocos Visual Fixed
Point, realize uma operação de point visão.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo movimente a peça, disposta no perfil (Ponto P) da esteira
transportadora para o ponto Q (sensor de detecção). Nessa proposta, não será
utilizado a posição incial do bloco Visual Fixed Point.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
1.14 Exercício
Implementando os conhecimentos adquiridos com os blocos Visual
Servoing, realize uma operação de servo visão.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo movimente a peça quando for detectada pelo sensor no ponto A, e
encaixe-a no berço, localizado no ponto B. Caso haja uma peça no berço, o robô
colaborativo deve emitir um sinal luminoso ou sonoro em resposta. Nessa
proposta, não será utilizado a posição incial do bloco Visual Fixed Point.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
FIT-F.24.01-02 Rev.C 27
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
Nome Função
Adjust Inclui obturador e foco para a câmera embutida e contraste e
camera balanço de branco para imagens extraídas. Todos os módulos
parameters possuem uma função automática uma vez. Clique em Salvar para
validar as alterações feitas.
Switch to Use as imagens internas do TM SSD para identificação.
record
image
Start at initial Verifique isso para retornar o robô à sua posição inicial antes da
position identificação visual. Desmarque isso e o robô executará a
identificação visual na posição atual.
Move to the Mova o robô para a posição inicial.
initial
position
Reset Redefina o espaço de trabalho do robô.
workspace
Lighting Ativar ou desativar a luz da câmera.
Light Use o controle deslizante para definir o nível de brilho.
Intensity
Idle for Defina o período de tempo manualmente ou automaticamente
Robot para que o robô se ajuste automaticamente antes de tirar fotos.
Stablilization
Snap-n-go Melhore a eficiência tirando instantâneos simultaneamente e
mantendo o fluxo para economizar tempo para tarefas não visuais
que se seguem. Após a captura da imagem, o sistema irá para o
próximo nó e manterá o processamento da imagem em segundo
plano do fluxo. Observe que quando os processos após o nó
Vision exigirem o resultado do nó Vision e o processamento da
FIT-F.24.01-02 Rev.C 28
imagem de fundo ainda estiver em execução, haverá condições
e retornos da seguinte forma:
• Se o próximo nó exigir os parâmetros do resultado, como
as variáveis booleanas Done e Pass geradas pelo trabalho
Vision, os usuários terão que editar um nó If para que o
sistema determine como proceder.
• Se o próximo nó também for um nó do Vision que inclui um
ponto base do Vision ou um trabalho do Vision, o fluxo não
continuará até que seja concluído com o último nó do
Vision.
1.16 Exercício
Implementando os conhecimentos adquiridos com os blocos AOI-only,
realize uma operação de somente Inspeção Óptica Automatizada.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo realize uma inspeção óptica, utilizando os módulos Find e Identify.
Caso o programa reprove a inspeção, o robô colaborativo deve emitir um sinal
luminoso ou sonoro em resposta. Nessa proposta, não será utilizado a posição
incial do bloco AOI-only.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 29
1.17 Vision IO
Entre na janela TMvision Task Designer e selecione Vision IO para usar
esta função. Quando ocorre uma alteração óbvia na imagem, a diferença antes
e depois da alteração pode ser usada para determinar se ocorreu uma alteração
na janela de detecção. O módulo Vision IO vê a câmera como um módulo IO e
monitora continuamente uma área específica na tela. Quando a área mostra uma
mudança significativa no conteúdo, um sinal de disparo é enviado ao Tmflow.
Método de inicialização:
Task Designer → Vision IO
Em comparação com as tarefas de visão anteriores no fluxo, ao selecionar
o Vision IO na inicialização, os usuários podem configurar no prompt conforme
mostrado à esquerda da figura abaixo.
Nome Função
Move to Mova o robô para a posição inicial.
Initial
Position
Rest Initial Redefinir a posição inicial do robô.
Position
TimeOut Defina o tempo de espera pelo Vision IO. Se o IO não for ativado
dentro do limite de tempo, o processo sai pelo caminho Fail.
Set sensing Defina uma região no vídeo ao vivo como uma área para
window monitorar. Após a conclusão da configuração, se o nível de
variações ultrapassar o limite, significa que ocorreu o evento
acionado.
Threshold Sensibilidade do evento de disparo: quanto menor o limite, mais
sensível.
FIT-F.24.01-02 Rev.C 30
1.18 Exercício
Implementando os conhecimentos adquiridos com os blocos Vision IO,
realize uma operação de Entrada e Saída de visão.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo realize uma visão de entrada e saída. Caso o programa reprove a
inspeção, o robô colaborativo deve emitir um sinal luminoso ou sonoro em
resposta. Nessa proposta, não será utilizado a posição incial do bloco Vision IO.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 31
Para pontos que foram registrados na base do robô, os usuários devem
ensinar todos os pontos novamente se a relação relativa entre o robô e o objeto
mudou. Se o sistema de base de visão foi criado por meio do Landmark e o ponto
de alinhamento é baseado no sistema de base de visão anterior, se a relação
relativa entre o robô e o objeto mudou, basta a execução do nó de visão para
atualizar o sistema de base de visão do Landmark.
Nome Função
Adjust Inclui obturador e foco para a câmera embutida e contraste e balanço
camera de branco para imagens extraídas. Todos os módulos possuem uma
parameters função automática uma vez. Clique em Salvar para validar as
alterações feitas.
Switch to Use as imagens internas do TM SSD para identificação.
record
image
Start at initial Verifique isso para retornar o robô à sua posição inicial antes da
position identificação visual. Desmarque isso e o robô executará a
identificação visual na posição atual.
Move to the Mova o robô para a posição inicial.
initial
position
Reset Redefina o espaço de trabalho do robô.
workspace
Lighting Ativar ou desativar a luz da câmera.
Light Intensity Use o controle deslizante para definir o nível de brilho.
FIT-F.24.01-02 Rev.C 32
Snap-n-go Melhore a eficiência tirando instantâneos simultaneamente e
mantendo o fluxo para economizar tempo para tarefas não visuais
que se seguem. Após a captura da imagem, o sistema irá para o
próximo nó e manterá o processamento da imagem em segundo
plano do fluxo. Observe que quando os processos após o nó Vision
exigirem o resultado do nó Vision e o processamento da imagem de
fundo ainda estiver em execução, haverá condições e retornos da
seguinte forma:
• Se o próximo nó exigir os parâmetros do resultado, como as
variáveis booleanas Done e Pass geradas pelo trabalho
Vision, os usuários terão que editar um nó If para que o
sistema determine como proceder.
• Se o próximo nó também for um nó do Vision que inclui um
ponto base do Vision ou um trabalho do Vision, o fluxo não
continuará até que seja concluído com o último nó do Vision.
1.20 Exercício
Implementando os conhecimentos adquiridos com os blocos Landmark
Alignment (Servoing), realize uma operação de Alinhamento do Ponto de
Referência.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo movimente a peça quando for detectada pelo sensor no ponto A, e
encaixe-a no berço, localizado no ponto B. Caso haja uma peça no berço, o robô
colaborativo deve emitir um sinal luminoso ou sonoro em resposta. Nessa
proposta, não será utilizado a posição incial do bloco Visual Landmark Alignment.
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode-
se zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 33
1.21 Exercício
Implementando os conhecimentos adquiridos com os blocos Landmark
Alignment (Fixed), realize uma operação de Alinhamento do Ponto de
Referência.
Nesse exercício, você deve desenvolver um programa para que o robô
colaborativo movimente a peça quando for detectada pelo sensor no ponto A, e
encaixe-a no berço, localizado no ponto B. Caso haja uma peça no berço, o robô
colaborativo deve emitir um sinal luminoso ou sonoro em resposta. Nessa
proposta, não será utilizado a posição incial do bloco Landmark Alignment
(Fixed).
Ao terminar o desafio, insira as evidências sobre a atividade (estrutura)
em arquivos: na sua estrutura original, caso os diretórios sejam HTML, CSS, JS,
JPG e/ou PNG, podendo inserir na plataforma quantos arquivos quiser ou pode
zipar os arquivos (ZIP e RAR), inserindo todos os arquivos de uma vez só. As
evidências são: Código-fonte do exercício (arquivo do codigo fonte e foto da
montagem/ tela).
FIT-F.24.01-02 Rev.C 34
Situação Problema
Você é um funcionário da Flex, e seu supervisor solicita a implementação
de um cobot no processo middle end para aplicação de termogel em três
componentes das pcbas dos modelos de celulares motorola. Você deve
desenvolver um programa que utilize conceitos de visão (fica a critério do
programador a utilização dos blocos de visão), para localizar uma pcba, e com
base nesse ponto, criar uma coordenada fiducial, pois as pcbas são postas em
um palete, e a esteira é responsável por transportar o palete, até o ponto de
aplicação, porém, a esteira tem folgas laterais, o que causaria erro de aplicação
de termogel nos componentes solicitados.
Implementando os conhecimentos adquiridos com os blocos Pallet, sendo
que para isso, crie uma lógica condicional usando If e outra usando Gateway.
FIT-F.24.01-02 Rev.C 35
Conclusão
FIT-F.24.01-02 Rev.C 36
Referências
TM Flow, 2021. Software Manual TMflow Software version: 1.82, disponível em:
< https://www.tm-robot.com/en/wpdmdownload/software-manual-tmflow-
editor_sw1-82/> acessado em Março de 2022;
FIT-F.24.01-02 Rev.C 37
CONTROLE DE REVISÃO DO DOCUMENTO / DOCUMENT REVISION CONTROL
Revisão Descrição Razão Autor Data
A Elaboração da apostila. Revisão inicial Larissa Alves 24/03/22
Jailson
Acrescimo de conteúdo e exercícios e revisão Processo de
B Bina/Luana 22/11/22
pedagógica melhorias
Forte
FIT-F.24.01-02 Rev.C 38
BOM CURSO!
FIT-F.24.01-02 Rev.C 39