Robotergestützte Kamerakalibrierung als Teil eines Zentrums zur Präzisionsmess- und Prüftechnik für optische Messverfahren (POV)

Abgeschlossen
Auschnitt aus Kalibrierplatte mit photogrammetrischen (codierten/uncodierten) Signalisierungen i3mainz, CC BY SA 4.0

Im Rahmen des Aufbaus eines Zentrums zur Präzisionsmess- und Prüftechnik ist das i3mainz neben den Aktivitäten auf dem Gebiet der DKD-Zertifizierung des Kalibrierlabors für optisch antastbare Maßstäbe auch im Bereich der Kalibrierung optischer Sensoren beschäftigt.

Motivation

Im Zuge der Einrichtung eines Zentrums zur Präzisionsmess- und Prüftechnik für optische Messverfahren lag der Fokus im letzten Jahr vermehrt auf der Kalibrierung von Kameras bzw. Kalibrierung optischer Sensoren. Da der Hochschule (i3mainz) durch die Eröffnung des von der Carl-Zeiss-Stiftung geförderten Labors für angewandte Robotertechnik ROBOLAB seit 2016 ein mobiler Industrieroboter (MM-800 der Neobotix GmbH bestehend aus mobiler Plattform Neobotix MP-800 und Industrieroboterarm KR16 der Firma Kuka AG) zur Verfügung steht und während einer Kamerakalibrierung viele unterschiedliche Positionen und Ausrichtungen der entsprechenden Kamera im Bezug zum Kalibrierfeld benötigt werden, ist eine robotergestützte Kamerakalibrierung angedacht. Dabei wird sich im ersten Schritt ausschließlich auf die Kalibrierung von Industriekameras unterschiedlicher Hersteller (Bsp. Basler) fokussiert.

Aktivitäten

Als Kalibrierfeld dient eine ebene Kalibrierplatte mit codierten und uncodierten photogrammetrischen Signalisierungen die rasterförmig auf der Platte verteilt sind. Zusätzlich sind kalibrierte Maßstäbe enthalten um Aussagen über die äußere Genauigkeit treffen zu können.

Grundlage für die automatisierte Bildaufnahme zur Kamerakalibrierung soll eine aus der Sensor/Objektivkonstellation ermittelte Aufnahmekonstellation darstellen, die im zweiten Schritt selbständig durch den Industrieroboter angefahren wird. Entsprechend der Anfahrposition soll das Bildmaterial über getriggerte Kameras ausgelesen und gespeichert werden. Dafür sind folgende Punkte umzusetzen:

  • Steuerung von Belichtungszeit, Gain und Bildaufnahme von Kameras entsprechender Hersteller in einer Softwareeigenentwicklung (Grundlage dafür ist MATLAB mit diversen Toolboxen).
  • Steuerung des Kuka KR16 Roboterarms sowie der mobilen Plattform auf Basis einer Python Entwicklung (Python Version 2.7).
  • Die Kamerapositionen bilden entsprechend der zugrundeliegenden Kalibrieraufnahmekonstellation einen Orbit um das ebene Kalibrierfeld. Umzusetzen ist die Berechnung der Aufnahmepositionen für den jeweiligen Orbit im Koordinatensystem des Kalibrierfeldes.
  • Entwicklung einer Prozesskette zur Ermittlung der Transformationsparameter zwischen Kalibrierfeldkoordinatensystem und Roboterkoordinatensystem.

    • In dieser Transformationsanordnung steckt zugleich die Ermittlung der Beziehung zwischen Roboter Tool Center Point (TCP) und der äußeren Orientierung der jeweiligen Kamera.
  • Zusammenführen der Steuerung von Kamera und Roboterplattform in einer entsprechenden GUI.
  • Voll automatisierte Bildaufnahme an vorgegebenen Positionen für den Tool Center Point des Roboterarms.
  • Halb automatische Bildaufnahme an vorgegebenen Positionen in einem dem Roboter übergeordneten Koordinatensystem.

Resultate

Für das Jahr 2019 ist die vollständige automatische Bildaufnahme an vorgegebenen Positionen in einem dem Roboter übergeordneten Koordinatensystem geplant.