de en

Recap zur ML Konferenz 2019 in München

Am 17.06. war es wieder so weit: die halbjährlich stattfindende ML Conference startete mit einem Workshoptag, der allen Teilnehmerinnen durch gemeinsames Live-Coding einen verständlichen Einstieg in die Themen Machine Learning und Deep Learning erlaubte.

Am zweiten und dritten Konferenztag war das Programm dann prall mit Vorträgen gefüllt. Wie immer war das Hauptproblem die Qual der Wahl, da es immer eine breite Auswahl von drei bis vier parallelen Vorträgen gab. Trotz mehrerer hundert Teilnehmer war es dann durch die passende Location und die vielen alternativen Vorträge nie zu voll.

Wir waren diesmal mit zwei Vorträgen vertreten, einem Kurzvortrag zum Thema TensorFlow Training auf der Java Virtual Machine und einer Einführung in Autoencoder. Schließlich durfte unser CTO Christoph Henkelmann noch mal für das Expertenpanel auf die Bühne.

Tag 1: Hands-on-Workshops & Speaker’s Dinner

Als praxisnahe Konferenz für Anwender wurde wie immer mit intensiven Workshops eröffnet, bei denen das Gelernte sofort ausprobiert werden konnte.

Für Einsteiger gab es einen Grundkurs im Machine Learning mit Pieter Buteneers, der es jeder mit Programmier-Grundkenntnissen in einem Tag ermöglichte, die wichtigsten Prinzipien des ML zu lernen. Dank Pieters umfangreicher Praxiserfahrung war es ein idealer Kickoff, um in das Thema ML einzusteigen.

(Quelle: S&S Media Group)
Als Alternative für diejenigen mit mehr Grundlagenwissen hatten Xander Steenbrugge und Frederic Stallaert einen Paxisworkshop zum Thema Deep Learning im Angebot. Dabei konnten die Teilnehmerinnen mit Keras, einem der aktuell wichtigsten Deep Learning Frameworks, ihre eigenen Image Classifier trainieren.

Der für uns spannendste Teil des ersten Abends war natürlich das Speaker’s Dinner, wo wir uns mit den anderen Vortragenden in einem gemütlichen bayrischen Biergarten zu unseren Vorträgen und aktuellen KI Trends austauschen konnten.

Tag 2: Eröffnung, Vorträge und Casino Flair

Die Eröffnungs-Session des ersten Vortrag-Tages startete mit einem Kontrast zu den ansonsten eher auf Technik und Umsetzung fokussierten restlichen Vorträgen. Mit dem Thema „The Ethics of AI“ wurde ein nützlicher Kontrapunkt gleich zur Einleitung gesetzt.

Ab dann ging es in fünf parallel laufenden Slots ans Eingemachte. Gleich zu Beginn konnte man Aktuelles über eine der klassischen KI Anwendungen lernen – Schachcomputer. Speaker Oliver Zeigermann startete ganz klassisch mit der Funktionsweise einer symbolischen Schach-KI um dann zu zeigen, wie man mit Monte-Carlo Suche eine KI ein Spiel selbst lernen lässt.

Parallel dazu wurden die Grundlagen des Reinforcement Learning von Christian Hidber erklärt, wer schon immer wissen wollte, wie Algorithmen durch experimentieren mit Versuch und Irrtum lernen, war hier richtig aufgehoben.

Im zweiten Slot ging es darum, ML-Verfahren im Produktionsumfeld einzusetzen – zum Beispiel im Vortrag von Paul Dubs, der durch seine Erfahrung bei der Arbeit bei Skymind, dem Hersteller des führenden Deep Learning Framework für JAVA , gleich eine ganze Hitliste der schlimmsten Probleme (und deren Vermeidung) bei Inbetriebnahme und Betrieb von Machine Learning Modellen mit brachte.

Zwischen den Vorträge wurde immer genug Pause gelassen, um Luft zu schnappen und das Gehörte zu diskutieren. Auch für das leibliche Wohl wurde gesorgt: Jederzeit gab es eine umfangreiche Getränkeauswahl und leckeres Catering. Dank kurzer Wartezeiten am Buffet blieb immer ausreichend Zeit zum netzwerken und diskutieren, was mindestens genauso spannend wie die Vorträge war.

(Quelle: S&S Media Group)
Chatbots sind im Moment ein spannendes Thema, weshalb es auf dieser ML Conference gleich zwei Vorträge zu dazu gab. Im ersten davon hat Christoph Windhäuser von gleich mehreren Projekten mit mehreren verschiedenen Frameworks berichtet und wie er und sein Team bei der Implementierung der Chatbots vorgegangen sind.

Christophs Vortrag #1 – Training neuronaler Netze

Am letzten Slot des Tages waren wir dann an der Reihe: In einem Kurzvortrag hat Christoph gezeigt, wie man Google’s Deep Learning Framework TensorFlow auch auf der JAVA Virtual Machine zum Training neuronaler Netze nutzen kann. Für das ablaufen lassen von TensorFlow Modellen auf der JVM haben wir bereits eine Serie von Blogartikeln. In diesem Vortrag ging es dann noch einen Schritt weiter, denn hier haben wir gezeigt, wie man das Modell auch unter JAVA trainieren kann. Für die ganz ungeduldigen gibt es hier die Superkurzzusammenfassung des Vortrags im Video.

Beim Abend-Event konnte man dann bei einem kühlen Bier, Roulette und Blackjack entspannen und über die Vorträge des Tages diskutieren.

Tag 3: Noch mehr Chatbots

Unser zweiter Vortrag folgte direkt am nächsten Morgen mit einem unserer Lieblingsthemen: „Unsupervised Learning with Autoencoders”. In diesem Vortrag haben wir erklärt, wie neuronale Netze auch etwas Lernen können, wenn nur Rohdaten vorliegen, die Daten also nicht klassifiziert oder annotiert sind. Wenn ihr mehr über den Unterschied zwischen überwachtem und unüberwachtem Lernen lernen wollt, könnt dies im 5. Teil unserer “KI leicht erklärt”-Reihe tun.

Der weitere Vormittag war natürlich wieder mit einer reichen Auswahl an Talks gefüllt, unter anderem zu Themen wie AutoML, Evolutionären Algorithmen und dem Austricksen von Gesichtserkennung. 

(Quelle: S&S Media Group)
Beim Expertenpanel nach der Mittagspause, bei dem auch Christoph dabei war, ging es dann vor allem darum, wie man ML-Projekte in Firmen mit wenig oder keiner Machine Learning Erfahrung erfolgreich in die Produktion bringt. Dabei konnte das Publikum dem Panel Fragen stellen. Eine Möglichkeit, von der leider noch zu wenige Teilnehmer Gebrauch gemacht haben.

Neben vielen anderen spannenden Vorträgen gab es dann mit dem Vortrag von Vladimir Rybakov ein Thema, dass auch uns sehr am Herzen liegt: Das pro und contra von Preprocessing bei Deep Learning Projekten. Neben einer sehr nützlichen Einführung in Preprocessing Verfahren wurde anhand echter Ergebnisse von gelernten Modellen gezeigt, welche den meisten – oder aber auch gar keinen – Einfluss auf die Qualität von Ergebnissen hatten.

Bei einem der letzten Vorträge ging es wieder um Chatbots. Als CTO von Chatlayer klärte Pieter Buteneers schonungslos über die Limitierungen des aktuellen Stands der Chatbot-Technik auf und gab dabei einen Einblick in die Praxis der Chatbot Entwicklung. Wichtigste Erkenntnis hier: Chatbots brauchen noch eine Menge Handarbeit und vorher festgelegte Regeln und ähneln noch eher dem Dialogbaum aus einem Point-and-Click Spiel als einem autonomen Gesprächspartner.

Danach hieß es schließlich leider: Abschied nehmen. Aber wir sind auch auf der nächsten ML Conference im Winter in Berlin dabei. Gerne könnt ihr uns auf Twitter folgen, wir halten euch über geplante Vorträge auf Konferenzen und die neusten Blog-Artikel auf dem laufenden. Und Wir freuen uns, Euch dort oder auf einer anderen Konferenz zu treffen!