Live von der CES 2015: Nvidia-Pressekonferenz | TechStage
TechStage
Suche

Ein Angebot von

Live von der CES 2015: Nvidia-Pressekonferenz

Eine neue Shield-Konsole, ein neues Android-Tablet oder den Nachfolger des Tegra K1? Was Nvidia an Neuheiten auf die CES mitgebracht hat, erfahrt Ihr in unserem Live-Blog von der Pressekonferenz.

  • von Daniel Schraeder 1/5/2015 4:41:16 AM
    Es geht nun um das Lernen bei der Bildauswertung.
    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:42:26 AM
    Um ein Auto zuverlässig autonom bewegen zu können, muss man mehr erkennen als Schilder, Fußgänger und Fahrbahnmarkierungen.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:42:30 AM

    GPUs spielen eine wichtige Rolle beim sogenannten Deep Learning – und da spielt Nvidia natürlich eine wichtige Rolle. Deep Learning fällt in das Feld Künstliche Intelligenz.

    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:43:31 AM
    Es geht darum, riesige Datenmengen effektiv auswerten zu können. Hier kommen neurale Netze ins Spiel.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:45:19 AM

    Das Trainieren von Neutralen Netzen auf das Erkennen von Bildern ist sehr rechenintensiv. Das System muss einzelne Bildteile identifizieren, beispielsweise die Räder des Autos – oder die Scheinwerfer.

    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:45:28 AM
    Es geht darum, Algorithmen zu verbessern. Bei der Bildauswertung treten verschiedene Techniken gegeneinander an und mussten auf 1,2 Millionen Testbildern 1000 Gegenstände erkennen.
    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:45:50 AM
    Die Algorithmen werden dabei automatisch immer wieder leicht verändert und angepasst und die Ergebnisse werden miteinander verglichen.
    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:46:32 AM
    Jedes Mal, wenn eine Bilderkennung – hier gerade mit einem Foto des Audi A7 gezeigt – nicht klappt, wird der Algorithmus so lange verändert, bis die Erkennung klappt.
    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:46:53 AM
    Bis auf dem Foto des Audis etwa Scheinwerfer oder Räder erkannt werden können.
    Kommentar schreiben ()
  • von Daniel Schraeder 1/5/2015 4:47:20 AM
    Irgendwie klingt das gerade schon ein wenig nach Skynet ;)
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:48:20 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:49:08 AM
    Wir sehen noch ein Beispiel, wie das Neurale Netz einen Fußgänger auf der Straße erkennt.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:49:19 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:49:36 AM
    Der Algorithmus erkennt verschiedene Teile des Fußgängers, beispielsweise Beine und Kopf, und schließt daraus, dass es sich um einen Menschen handelt.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:50:18 AM
    Auf die gleiche Art und Weise sollen Autos künftig auch andere Autos erkennen – und hier auch verschiedene Typen von Autos auseinanderhalten können. Kommt von hinten beispielsweise ein Krankenwagen, macht das selbstfahrende Auto Platz.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:50:27 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:50:51 AM
    Jetzt sehen wir ein Beispiel von einem Tegra-X1-basierten System, das ein paar Wochen lang gelernt hat.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:51:08 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:51:50 AM
    Aktuell erkennt das System Verkehrsschilder – und das soll mit neuralen Netzwerken effektiver funktionieren als mit traditionellen Bilderkennungssystemen.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:52:17 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:53:41 AM
    Das System erkennt Fußgänger auch, wenn diese teilweise verdeckt sind. Im Beispiel sieht die Software erst eine Person hinter einem Auto und erkennt diese als Fußgänger. Als sie hinter dem Auto hervorkommt, sieht das System, dass die Person auf einem Fahrrad sitzt und labelt sie als Radler um.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:53:56 AM
    Die Erkennung funktioniert in Echtzeit.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:55:11 AM
    Ein weiteres wichtiges Beispiel ist das Erkennen von Ampeln. Dabei müssen zunächst einmal Ampeln an sich erkannt werden – anschließend geht es um die Art der Ampel: Für welche Verkehrsteilnahmer ist sie relevant? Welche Farbe hat sie?
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:55:48 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:56:36 AM
    Jetzt geht es um dynamische Verkehrsleitsysteme, die je nach Bedingungen andere Tempolimits u. a. darstellen. Zusätzlich kommen noch schlechte Lichtverhältnisse hinzu.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:56:47 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:57:24 AM
    Das System erkennt nicht nur Tempolimits, sondern liest beispielsweise auch Warnungen, dass ein Stau bevorsteht.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:57:33 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:58:06 AM
    Zusätzlich erkennt das Auto auch, dass vor ihm viele andere Autos bremsen.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:58:15 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:58:29 AM
    Jetzt geht es nach Las Vegas: Was kommt als nächstes? Betrunkene als besondere Bedrohung erkennen?
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 4:58:47 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:00:17 AM
    Ohne Deep Neural Networks wäre es kaum möglich, ein derart unterscheidungsstarkes System zu erschaffen.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:00:38 AM
    Neurale Netzwerke lernen ganz ähnlich wie das menschliche Gehirn: Man muss sie erst trainieren.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:01:34 AM
    Die Netzwerke erkennen dann beispielsweise, dass es sich um ein Auto handelt, da es typische Elemente aufweist: Räder, Windschutzscheibe, Nummernschild etc. – anhand weiterer Merkmale erkennt das System dann auch noch, welche Art von Auto es ist.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:02:05 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:02:42 AM
    Ja, und auch Polizeiautos, die sich von hinten nähern, werden erkannt. Das sorgt bei den Anwesenden für großes Gelächter.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:02:51 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:04:11 AM
    Die Herausforderung für das Auto besteht nun darin, anhand dieser erkannten Umgebung die richtigen Entscheidungen zu treffen – und hoffentlich niemanden über den Haufen zu fahren.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:05:16 AM
    Jetzt geht es darum, wie der Computer lernt. Wie beim Gehirn knüpft das System Beziehungen zwischen verschiedenen Fakten, die unterschiedliche Gewichte haben.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:06:05 AM
    Zwei TX1-Prozessoren können gleichzeitig 150 Objekte erkennen. Ohne es genau zu wissen würde ich mal behaupten, dass ich meine Umgebung nicht so detailliert wahrnehme.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:06:17 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:07:10 AM
    Jedes einzelne Auto lernt anhand seiner Umgebung ständig weiter – und über die Cloud profitieren sämtliche Autos von den Ergebnissen.
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:07:39 AM
    Kommentar schreiben ()
  • von Stefan Möllenhoff 1/5/2015 5:08:06 AM
    Der Tegra X1 kann 30 Bilder pro Sekunde erkennen – in einer Datenbank aus 1,5 Millionen Bildern.
    Kommentar schreiben ()
Gesponsert von ScribbleLive Content Marketing Software Platform
Anzeige