Automation of the AutoEyeTruss system using an industrial robot
Master thesis
Permanent lenke
https://hdl.handle.net/11250/3007365Utgivelsesdato
2022Metadata
Vis full innførselSamlinger
Beskrivelse
Full text not available
Sammendrag
Denne masteroppgaven omhandler å simulere en robot manipulator, KUKA kr16 ved å bruke ROS2 og MoveIt2. KUKA Kr16 er en robot manipulator med seks links som har et maksimalt løfte kapasitet på 16 kg. Roboten er en Fixed based robot som vil si at den ikke beveger på seg om en mobil robot.
Det er ønskelig at det iverksettes et system som kan gjennomføre et scenario der roboten kan plukke opp objekt og plassere det på et produksjons bånd, der ob- jektene blir til en takstol. Til dette er det ment å bruke manipulatoren, i tillegg til eksterne sensorer som kamera for å utføre lokalisasjon. Et teoretisk ram- meverk ble utført rundt kamera visjon og grunnleggende robot kinematikk. For lokalisering ble aruco marker forslått og brukt. Gjenkjenning av aruco markerne ble utført med programvaren OpenCV som er en programvare for kamera visjon. Selve robot programmeringen ble utført ved å bruke robot Programming Software ROS2 sammen med MoveIt. OpenCV ble importert og brukt sammen med ROS2 for å kunne utføre estimering av lokasjon til roboten i forhold til aruco markeren.
Et helhetlig system som er tilpasset programvarene ROS2 og MoveIt2 ble utviklet for selve manipulasjonen av roboten i en simulasjon. MoveIt setup Assist ble brukt til å utvikle en rekke configurasjon av filer for å kunne benyttet MoveIt2 sine pakker i kombinasjon med ROS2. Etter litt utforskning ble griperen funnet på nettet som ble tilpasset roboten KUKA kr16. På end-eektoren til roboten ble også en adapter definert som griperen er koblet i.
Manipulasjonen av manipulatoren, kr16 ble utført både ved å bruke MoveIt2 mo- tioninterface interaktivt, samt MoveIt sin MoveGroupInterface som bruker c++ programmering for utføre bevegelse av manipulatoren gjennom en programmer- ings kode. Simulering ble uført både med og uten objekter til å plukke opp. Selve koden for simulering av roboten for plukking av objekter må jobbes med tanke på å posisjonere objektet nøyaktig ved griperens rekkevidde. Ved videre arbeid vil jeg forslå bruken av Gazebo for bedre simulering, og forhåpentligvis med tid så kommer det nye oppdateringer av pakker fra ROS1 og MoveIt1 til ROS2 og MoveIt2 som inneholder nye funksjonaliteter som for eksempel Python API for motion planning. This thesis investigates how to implement a fixed based robot manipulator, the kr16, manufactured by KUKA, by conducting a simulation interaction with ROS2 and MoveIt2. The MoveIt2 is intended to be used as the motion planner as well as using Rviz for visualisation for the simulation. It is indented to be used by Pretre AS for automatic pick and place of different roof truss parts used in the production of a roof truss. The Method and theory used in this thesis are presented, followed by how the simulation is implemented.The production process of the roof trusses is almost fully automated except for the first step of the process where operators must physically pick and place the different top and bottom chords as well as the webs of the roof truss into the Auto- eye truss system which is the automated production machine which assembles the part to build a roof truss. By conducting this thesis I will look into the possibility of implementing a robot manipulator such as the KUKA Kr16 to do take over the first step, where the operator places the parts physically. By using a robot manipulator to do this step, the physical workload for the operators will be reduced. The proposed setup is to use the Kuka kr16 robot for simulation as well as using camera vision with fiducial markers for pose estimation and localization.In order to conduct the simulation and show the possibilities of implementing a robot manipulator. A theoretical background was conducted in robot configuration as well as extensive research in ROS2 and MoveIt2 and Camera vision in combination with AruCo markers. Furthermore, a chapter describing the achievement and evaluation of the system was presented. In this chapter, the setup was described as it would have been in real life as well the simulated. In order to successfully implement the simulation certain steps was needed, such as making a MoveIt2 configuration file for the motion planning of the robot. In this thesis, not much time was spent on the development of the gripper, but instead on the actual implementation of the pick and place simulation. Using ROS2 and MoveIt the kr16 was first brought up to the Rviz Visualisation tool using the configuration package generated by the MoveIt1 Setup Assist (SA). Since the moveIt1 SA at the time only was available for ROS1 the configuration package, had to first be generated using MoveIt1 and ROS1 and then modified so that it can be used for MoveIt2.OpenCV was used in combination with ROS2 to detect and estimate the pose of the camera which is intended to be mounted on the end-effector. The motion planning was then conducted using the interactive motion planning provided by MoveIt2. The motion planning for pick and place simulation was conducted using the moveIt2 move_group interface using c++. A script was generated so that the pick and place motion was generated using the script. Due to the limitations of Rviz and the c++ interface, real objects such as the chord and webs could not be added to the simulation. As a solution for this, I would recommend for future work to possible use specific simulation software such as gazebo. Due to time limitations, I was not able to also implement the robot in the lab this is also something that can be done using Kuka hardware RSI in combination with the workspace generated for this thesis.