Autonom unterwegs: Assistenzsysteme in der Off-Highway-Branche machen große Fortschritte
Mobile Arbeitsmaschinen wie Traktor, Feldhäcksler oder Mähdrescher werden zunehmend autonomer und mit immer mehr intelligenten Assistenzfunktionen ausgestattet. Flexible Konzepte für den Off-Highway-Sektor reichen heute von der intuitiven manuellen Bedienung bis zu vollautonomen Lösungen.ModerneAssistenzsysteme finden sich aber nicht nur für die Landwirtschaft – auch Baumaschinen werden Schritt für Schritt digitalisiert.
Assistenzsysteme und Funktionen des (teil-)autonomen Fahrens gewinnen stark an Bedeutung. Nicht nur auf der Straße, auch im Off-Highway-Bereich versprechen sich die Anwender davon einen Gewinn an Sicherheit, Effizienz und Komfort. Die Herausforderung dabei: Mobile Arbeitsmaschinen wie Mähdrescher oder Radlader agieren in einer rauen und sich ständig ändernden Umgebung hinsichtlich Temperatur, Sichtverhältnissen, Vibration, Schmutz oder Feuchte. Dabei führen sie Aufgaben aus, welche die höchste Aufmerksamkeit des Bedieners selbst bei schlechten Sichtverhältnissen erfordern. Lokalisierung, maschinelle Lernfähigkeit oder fahrerlose Steuerungssysteme: All diese Funktionalitäten im Verbund mit intelligenter Sensorik, Cloud-basierter Vernetzung sowie kabelloser Maschine-zu-Maschine-Kommunikation sind längst Standard, sowohl in der Landwirtschaft als auch in der Bauwirtschaft.
Sensoren für die digitale Sichtfelderweiterung
Egal, ob es sich um Erntemaschinen handelt, die Precision Farming betreiben, oder Baumaschinen, die automatisch baggern: Je umfassender und verlässlicher ein Off-Highway-Fahrzeug die Umgebung erkennen soll, desto wichtiger werden die Anzahl und Anordnung von Sensoren. Sie sammeln kontinuierlich Echtzeitdaten aus der Umgebung, um Informationen über andere Fahrzeuge, Personen und Hindernisse zu erhalten. Integriert in ein Fahrerassistenz- oder Fahrzeugautomationssystem ermöglichen sie, die Maschine automatisch zu positionieren und zu steuern, ihre Geschwindigkeit zu regeln oder den Arbeitsprozess zu optimieren.
Damit ein autonom agierendes Fahrzeug bei ungünstigen Licht- und Witterungsbedingungen zweifelsfrei seine Umgebung wahrnehmen kann, braucht es unterschiedliche Sensoren. Intelligent kombiniert gestatten sie einen umfassenden 360-Grad-Blick und schaffen so die Grundlage für die effiziente Entwicklung weiterführender Assistenzfunktionen. Im Mittelpunkt der Engineering-Aktivitäten stehen redundante „Fusion-Systeme“, um die Daten aller Sensoren sowohl räumlich als auch zeitlich zusammenzuführen und gemeinsam zu verarbeiten. Dank ausgeklügelter Algorithmen liefern diese unter extremen Umweltbedingungen zuverlässige Distanz- oder Positionsinformationen und warnen vor Objekten im Sichtbereich. Hersteller setzen dafür gleich auf mehrere Verfahren. Sind beispielsweise über ein Gateway weitere Sensoren mit dem HMI-Panel verbunden, wie LiDAR (Light Detection and Ranging) in Verbindung mit Ultraschall oder Radar, können diese Informationen im dargestellten Bild der RGB- oder Infrarotkameras überlagert werden. Dem Fahrer wird so gezeigt, wo ein potenzielles Hindernis erkannt wurde. Zum Funktionsumfang zählen beispielsweise Tot-Winkel-Überwachung und Manövrierassistenz.
Schritt für Schritt zum intelligenten Erntehelfer
Hersteller von Land- und Baumaschinen können auf funktionale Grundbaukästen zugreifen, mit denen sie nach dem Plug-&-Play-Prinzip eigene Assistenzsysteme konzipieren können – abgestimmt auf ihre Anforderungen. GPS und Navigationssysteme sind weitere treibende Technologien. Sie bieten exakte Positionsdaten und ermöglichen es den Fahrzeugen, ihre Route zu planen und sicher ans Ziel zu gelangen. Mittels der ständig abrufbaren Korrektursignale berechnet das Lenksystem die aktuelle Position und kann so die Fahrspuren zentimetergenau bestimmen – ein wichtiger Schritt auf dem Weg zum autonomen Traktor. Die automatische Teilbreitenschaltung ist eine weitere GPS-Anwendung, wie sie beispielsweise bei Feldspritzen oder Düngerstreuern zum Einsatz kommt. Sobald es zu Überlappungen kommt oder die Feldgrenze erreicht ist, übernimmt sie das Ein- beziehungsweise Ausschalten der Teilbreiten des Arbeitsgerätes.
Eine zentrale Rolle bei der Umfelderkennung kommt ferner den LiDAR-Sensoren zu. Sie erfassen ihre Umwelt mithilfe von Licht – durch einen Fotosensor. Das System berechnet, wie lange es dauert, bis ein ausgesendeter Laserstrahl auf ein Objekt trifft und zurückreflektiert wird. Anhand einer Vielzahl von Signalen wird daraus eine 3D-Karte der Umgebung erstellt. Der Fahrer einer Baumaschine kann so Geländemodelle abrufen, die dann teilautomatisiert abgefahren werden. Die Technologie eröffnet vor allem mobilen Arbeitsmaschinen in der Landwirtschaft zahlreiche Anwendungsmöglichkeiten, die zu mehr Effizienz auf dem Feld führen. Die elektronisch-optischen Sensoren tasten mit ihren Lichtimpulsen beispielsweise die Kante zwischen gemähtem und ungemähtem Feld ab und führen einen Mähdrescher automatisch an der Bestandskante entlang. Montiert auf dem Kabinendach eines Traktors steht Landwirten mit einem LiDAR-System ein intelligenter Erntehelfer zur Seite. Er wandelt die Messergebnisse in Lenk- und Geschwindigkeitsinformationen um und gibt sie direkt an das Assistenzsystem aus – beispielsweise zur Schwaderkennung. Mit den Daten kann die Steuerung die Zugmaschine automatisch entlang der Schwade lenken und die Mahd optimal einer Ballenpresse zuführen.
Vernetzung und Automation aus dem Baukasten
Forderungen nach echtzeitfähigen Sensoren und wachsende Ansprüche an die Autonomie mobiler Arbeitsmaschinen sind nur zwei der Entwicklungen, die das Engineering im Off-Highway-Sektor dominieren. Sie gehen einher mit einem weiteren Trend: Die große Vielfalt an unterschiedlichen Arbeitsmaschinen, oft nur in geringen Stückzahlen, führt zu einem hohen Bedarf an modularen und flexiblen Lösungen. Nur so lässt sich vermeiden, dass neue Anforderungen an einzelne Sensoren eine vollständige Umstrukturierung der anwendungsbezogenen Assistenz-, Fahr- und Automatisierungsfunktionen nach sich ziehen.
Hier setzt das Institut für leistungselektronische Systeme (ELSYS) der Technischen Hochschule Nürnberg Georg Simon Ohm an. Im Rahmen des im März 2023 gestarteten Verbundprojekts POV.OS entwickelt ein Team eine offene Automatisierungsplattform aus Hard- und Software. POV steht dabei für “Professional Operating Vehicles“. Ziel ist es, eine übergreifende Plattform mit modularen Systemkomponenten zu konzipieren. „Wir bieten eine zentrale Recheneinheit mit sicheren und zertifizierten Komponenten sowie standardisierten Schnittstellen. So ermöglichen wir es allen Firmen entlang der Wertschöpfungskette für professionelle Arbeitsmaschinen, relevante Produkte schnell zu entwickeln“, erklärt ELSYS-Leiter Prof. Dr.-Ing. Armin Dietz. Geforscht wird unter anderem an modernen, flexiblen Regelungsverfahren. Diese sollen mittels eines modularen Leistungselektronikbaukastens die Ansteuerung verschiedener elektrischer Antriebe sowie die Einbindung unterschiedlicher Energiespeicher ermöglichen. „Wir möchten durch den Einsatz von KI-basierten Methoden den Entwicklungsprozess vereinfachen und die Energieeffizienz des elektrischen Antriebsstrangs steigern“, sagt Dietz. So entsteht ein gemeinsames Kernsystem aus Hardware- und Softwarekomponenten für die Ansteuerung, die sensorische Erfassung und die Vernetzung von POV.
Wegbereiter der neuen Mobilität
Ob Fahren oder Arbeiten, ob Diesel, hybrid oder vollelektrisch: Die derzeit verfügbaren Assistenzfunktionen sind nur eine erste Stufe hin zur vollautomatisierten und vernetzten Arbeitsmaschine der Zukunft. Neue Technologien führen auf direktem Weg in Richtung Autonomie.
Stand: 02.08.23