Live von der CES 2015: Nvidia-Pressekonferenz
Eine neue Shield-Konsole, ein neues Android-Tablet oder den Nachfolger des Tegra K1? Was Nvidia an Neuheiten auf die CES mitgebracht hat, erfahrt Ihr in unserem Live-Blog von der Pressekonferenz.
3rd & 7 37yd
3rd & 7 37yd
B
S
O
close
close

-





-
von Daniel Schraeder 1/5/2015 4:42:26 AMUm ein Auto zuverlässig autonom bewegen zu können, muss man mehr erkennen als Schilder, Fußgänger und Fahrbahnmarkierungen.
-
von Stefan Möllenhoff 1/5/2015 4:42:30 AM
GPUs spielen eine wichtige Rolle beim sogenannten Deep Learning – und da spielt Nvidia natürlich eine wichtige Rolle. Deep Learning fällt in das Feld Künstliche Intelligenz.
-
von Daniel Schraeder 1/5/2015 4:43:31 AMEs geht darum, riesige Datenmengen effektiv auswerten zu können. Hier kommen neurale Netze ins Spiel.
-
von Stefan Möllenhoff 1/5/2015 4:45:19 AM
Das Trainieren von Neutralen Netzen auf das Erkennen von Bildern ist sehr rechenintensiv. Das System muss einzelne Bildteile identifizieren, beispielsweise die Räder des Autos – oder die Scheinwerfer.
-
von Daniel Schraeder 1/5/2015 4:45:28 AMEs geht darum, Algorithmen zu verbessern. Bei der Bildauswertung treten verschiedene Techniken gegeneinander an und mussten auf 1,2 Millionen Testbildern 1000 Gegenstände erkennen.
-
von Daniel Schraeder 1/5/2015 4:45:50 AMDie Algorithmen werden dabei automatisch immer wieder leicht verändert und angepasst und die Ergebnisse werden miteinander verglichen.
-
von Daniel Schraeder 1/5/2015 4:46:32 AMJedes Mal, wenn eine Bilderkennung – hier gerade mit einem Foto des Audi A7 gezeigt – nicht klappt, wird der Algorithmus so lange verändert, bis die Erkennung klappt.
-
von Daniel Schraeder 1/5/2015 4:46:53 AMBis auf dem Foto des Audis etwa Scheinwerfer oder Räder erkannt werden können.
-
von Daniel Schraeder 1/5/2015 4:47:20 AMIrgendwie klingt das gerade schon ein wenig nach Skynet ;)
-
-
von Stefan Möllenhoff 1/5/2015 4:49:08 AMWir sehen noch ein Beispiel, wie das Neurale Netz einen Fußgänger auf der Straße erkennt.
-
-
von Stefan Möllenhoff 1/5/2015 4:49:36 AMDer Algorithmus erkennt verschiedene Teile des Fußgängers, beispielsweise Beine und Kopf, und schließt daraus, dass es sich um einen Menschen handelt.
-
von Stefan Möllenhoff 1/5/2015 4:50:18 AMAuf die gleiche Art und Weise sollen Autos künftig auch andere Autos erkennen – und hier auch verschiedene Typen von Autos auseinanderhalten können. Kommt von hinten beispielsweise ein Krankenwagen, macht das selbstfahrende Auto Platz.
-
-
von Stefan Möllenhoff 1/5/2015 4:50:51 AMJetzt sehen wir ein Beispiel von einem Tegra-X1-basierten System, das ein paar Wochen lang gelernt hat.
-
-
von Stefan Möllenhoff 1/5/2015 4:51:50 AMAktuell erkennt das System Verkehrsschilder – und das soll mit neuralen Netzwerken effektiver funktionieren als mit traditionellen Bilderkennungssystemen.
-
-
von Stefan Möllenhoff 1/5/2015 4:53:41 AMDas System erkennt Fußgänger auch, wenn diese teilweise verdeckt sind. Im Beispiel sieht die Software erst eine Person hinter einem Auto und erkennt diese als Fußgänger. Als sie hinter dem Auto hervorkommt, sieht das System, dass die Person auf einem Fahrrad sitzt und labelt sie als Radler um.
-
von Stefan Möllenhoff 1/5/2015 4:53:56 AMDie Erkennung funktioniert in Echtzeit.
-
von Stefan Möllenhoff 1/5/2015 4:55:11 AMEin weiteres wichtiges Beispiel ist das Erkennen von Ampeln. Dabei müssen zunächst einmal Ampeln an sich erkannt werden – anschließend geht es um die Art der Ampel: Für welche Verkehrsteilnahmer ist sie relevant? Welche Farbe hat sie?
-
-
von Stefan Möllenhoff 1/5/2015 4:56:36 AMJetzt geht es um dynamische Verkehrsleitsysteme, die je nach Bedingungen andere Tempolimits u. a. darstellen. Zusätzlich kommen noch schlechte Lichtverhältnisse hinzu.
-
-
von Stefan Möllenhoff 1/5/2015 4:57:24 AMDas System erkennt nicht nur Tempolimits, sondern liest beispielsweise auch Warnungen, dass ein Stau bevorsteht.
-
-
von Stefan Möllenhoff 1/5/2015 4:58:06 AMZusätzlich erkennt das Auto auch, dass vor ihm viele andere Autos bremsen.
-
-
von Stefan Möllenhoff 1/5/2015 4:58:29 AMJetzt geht es nach Las Vegas: Was kommt als nächstes? Betrunkene als besondere Bedrohung erkennen?
-
-
von Stefan Möllenhoff 1/5/2015 5:00:17 AMOhne Deep Neural Networks wäre es kaum möglich, ein derart unterscheidungsstarkes System zu erschaffen.
-
von Stefan Möllenhoff 1/5/2015 5:00:38 AMNeurale Netzwerke lernen ganz ähnlich wie das menschliche Gehirn: Man muss sie erst trainieren.
-
von Stefan Möllenhoff 1/5/2015 5:01:34 AMDie Netzwerke erkennen dann beispielsweise, dass es sich um ein Auto handelt, da es typische Elemente aufweist: Räder, Windschutzscheibe, Nummernschild etc. – anhand weiterer Merkmale erkennt das System dann auch noch, welche Art von Auto es ist.
-
-
von Stefan Möllenhoff 1/5/2015 5:02:42 AMJa, und auch Polizeiautos, die sich von hinten nähern, werden erkannt. Das sorgt bei den Anwesenden für großes Gelächter.
-
-
von Stefan Möllenhoff 1/5/2015 5:04:11 AMDie Herausforderung für das Auto besteht nun darin, anhand dieser erkannten Umgebung die richtigen Entscheidungen zu treffen – und hoffentlich niemanden über den Haufen zu fahren.
-
von Stefan Möllenhoff 1/5/2015 5:05:16 AMJetzt geht es darum, wie der Computer lernt. Wie beim Gehirn knüpft das System Beziehungen zwischen verschiedenen Fakten, die unterschiedliche Gewichte haben.
-
von Stefan Möllenhoff 1/5/2015 5:06:05 AMZwei TX1-Prozessoren können gleichzeitig 150 Objekte erkennen. Ohne es genau zu wissen würde ich mal behaupten, dass ich meine Umgebung nicht so detailliert wahrnehme.
-
-
von Stefan Möllenhoff 1/5/2015 5:07:10 AMJedes einzelne Auto lernt anhand seiner Umgebung ständig weiter – und über die Cloud profitieren sämtliche Autos von den Ergebnissen.
-
-
von Stefan Möllenhoff 1/5/2015 5:08:06 AMDer Tegra X1 kann 30 Bilder pro Sekunde erkennen – in einer Datenbank aus 1,5 Millionen Bildern.
-
von Stefan Möllenhoff 1/5/2015 5:08:30 AMVorhin hat Nvidia gesagt, die Zuverlässigkeit des Systems ist dabei bereits besser als die von Menschen.