Jax 2018 in Mainz
Christoph hält auf der diesjährigen JAX in Mainz zwei Vorträge zum Thema maschinelles Lernen und Java.
Wir halten dieses Jahr auf der JAX in Mainz zwei Vorträge, beide zum Thema maschinelles Lernen (Machine Learning) und Java.
Im ersten Vortrag geht es um allgemeine Aspekte von Java EE Projekten, die ML oder „data driven“ Komponenten enthalten. Dabei geht es sowohl um technische als auch organisatorische Fragen.
Der zweite Vortrag widmet sich DL4J, einem Deep Learning Framework für Java. Wie immer werden die Code-Beispiele auf github bereit gestellt.
-
08 Apr. 2024
Whisper 3 Large für JAVA
Für einen internen Produktprototyp haben wir OpenAIs Whisper 3 Modell von Huggingface getraced und per DJL unter JAVA nutzbar gemacht.
-
14 Juni 2023
ChatGPT für Teams: Datenschutzkonforme Nutzung im Unternehmen
In der heutigen digitalen Geschäftswelt sind KI-gestützte Kommunikationsplattformen wie ChatGPT unverzichtbar, um beispielsweise komplexe Code-Fragen zu beantworten oder erstklassige Texte für Angebote zu erstellen. Doch gerade in Unternehmen, in denen sensible Kundendaten im Spiel sind, kann die Verwendung von ChatGPT zu einem Datenschutz-Dilemma führen. Obwohl ChatGPT eine Option bietet, um die Verwendung von Chatkonversationen für Trainingszwecke zu verhindern, gibt es damit gewisse Einschränkungen. Außerdem gibt es bisher (Stand: Juni 2023) keine Möglichkeit, mehrere Teammitglieder oder Benutzer über einen Firmenaccount zu verwalten. Jeder Nutzer muss sich einzeln registrieren und dazu eine eigene Email, Telefonnummer und Kreditkarte verwenden. Will man chatGPT+ nutzen, kann man z.B. nicht alle Nutzer über eine Kreditkarte bezahlen. Auch landen die einzelnen Rechnungen bei den einzelnen Nutzern. Ein organisatorischer und buchahlterischer Albtraum. Auch wir bei DIVISO haben uns mit dieser Problematik auseinandergesetzt und uns auf die Suche nach einer Lösung gemacht.
-
25 Okt. 2021
Git als Verwaltungstool für Trainingsdaten und Experimente beim ML
Wir beginnen in diesem Teil der Artikelserie über MLOps mit Informationen, die den meisten von euch bekannt sein werden: Mit den Basics von Git. Um jedoch eine andere Sichtweise auf das bekannte Tool aufzuzeigen, bieten diese Grundlagen die Basis, um die Funktion und Vorteile von Git für das maschinelle Lernen (ML) und den Unterschied bei der Verwaltung von Trainingsdaten zu betonen.
-
02 Aug. 2021
MLOps: Etablierung und Betrieb einer KI
Mit Machine Learning Operations (MLOps) stellen wir sicher, dass Daten durch regelmäßiges und automatisiertes Training effizient und strategisch in die unternehmerischen Abläufe eingebunden werden und somit zur Umsatzsteigerung beitragen. Die Herausforderung besteht darin, diese automatisierten Prozesse zu etablieren und instand zu halten.
-
29 Juni 2020
NLP, NLU und NLG: KI und Text
Bisher haben wir bei unseren Praxisbeispielen für das Grundverständnis von KI in der Regel einen großen Bogen um die Bereiche Textverständnis und Texterzeugung durch ML gemacht. Aus gutem Grund haben wir uns in erster Linie auf zwei Arten von Problemen konzentriert: Die Klassifikation von Bildern und die Vorhersage von Zahlwerten.
-
12 Mai 2020
Deep Java Learning Einführung - Teil 1: NDManager & NDArray
Nach unserer ersten Vorstellung von Amazons neuem Deep Learning Frameworks für Java, DJL, wollen wir nun in einer Reihe von Anfängerposts Schritt für Schritt die Grundlagen von Deep Learning unter Java mit DJL vorstellen. Hierbei soll es nicht um das schnelle Kopieren von Code Snippets, sondern um das wirkliche Verständnis des Frameworks und der Konzepte gehen.
-
28 Apr. 2020
Amazon DJL – ein neues Deep Learning Framework für Java
Wer auf der JVM und insbesondere in Java mit neuronalen Netzen und Deep Learning experimentieren wollte, für die gab es bisher nur wenig Auswahl. Wer ausschließlich auf Java setzen wollte, kam bisher an DL4J nicht vorbei. Wenn es die JVM, aber nicht unbedingt Java sein muss, kommt auch noch das Scala Frontend von MXNet in Frage. Wen schließlich ein wenig Python nicht schreckt, die kann eine Hybrid Lösung aus TensorFlow und Java probieren, wie wir bereits in früheren Artikeln erläutert haben.
-
06 März 2020
Arten von Künstlichen Neuronalen Netzen
In unserem Praxis-Beispiel haben wir zur Erkennung von handgeschriebenen Ziffern ein “feed-forward neural network” genutzt. Dieses ist die wohl einfachste Form eines NN. In der Praxis gibt es jedoch hunderte Arten von mathematischen Formeln, die über Addition und Multiplikation hinaus benutzt werden, um Schritte in einem Neuronalen Netz zu berechnen, viele verschiedene Arten, die Schichten anzuordnen, und viele mathematische Ansätze das Netz zu trainieren.
-
06 März 2020
Die häufigsten Irrtümer über Neuronale Netze
KI und insbesondere Neuronale Netze und Deep Learning sind seit einigen Jahren das technologische Hype Thema. Da die Materie aber recht abstrakt ist – man könnte sagen, für die meisten ist es Neuland – wollen wir hier einige Irrtümer bereinigen, denen wir in unserer Arbeit häufiger begegnen.
-
06 März 2020
Was sind Neuronale Netze und wie funktionieren sie?
Nachdem es in den letzten Beiträgen überwiegend um die Grundlagen der derzeitigen KI-Forschung ging und wir versucht haben, diese für Nicht-ITler verständlich zu beleuchten, wagen wir uns heute an das aktuell wohl „heißeste“ KI-Thema, die Neuronalen Netze (NN).
-
22 Okt. 2019
Deep Fakes - Woran man Fake-Bilder erkennen kann
Eine (relativ) neue Art neuronaler Netze, sogenannte Generative Adversarial Networks (zu deutsch etwa ‚erzeugende gegnerische Netzwerke’) oder GANs, sind heutzutage in der Lage, täuschend echte Bilder von Menschen zu erzeugen, die es gar nicht gibt. Diese Fake Bilder sind auf den ersten Blick von echten Fotos nicht mehr zu unterscheiden – aber zum Glück auf den zweiten Blick schon.
-
26 Juni 2019
Recap zur ML Konferenz 2019 in München
Am 17.06. war es wieder so weit: die halbjährlich stattfindende ML Conference startete mit einem Workshoptag, der allen Teilnehmerinnen durch gemeinsames Live-Coding einen verständlichen Einstieg in die Themen Machine Learning und Deep Learning erlaubte.
-
24 Mai 2019
KI leicht erklärt - Teil 5: Überwachtes & unüberwachtes Lernen im ML
Im vorigen Artikel haben wir Grundbegriffe des Machine Learning (ML) kennengelernt und anhand eines einfachen aber praxisrelevanten Algorithmus’ nachvollzogen, wie das Training eines Machine Learning Modells abläuft. Als nächstes wollen wir uns nun die verschiedenen Arten des Machine Learning näher anschauen.
-
14 Mai 2019
Fachtagung des BGL 2019 – Vortrag 'KI und Magie'
“Jede hinreichend fortgeschrittene Technologie ist von Magie nicht mehr zu unterscheiden." - Arthur C. Clark Die JAX 2019 ist gerade erst vorbei, da steht Christoph auch schon für den nächsten Vortrag auf dem Podium. Auf der Fachtagung des Bundesverbandes der Photo-Großlaboratorien geht es in seinem Vortrag um “KI und Magie – Wie funktioniert Künstliche Intelligenz?"
-
29 Apr. 2019
Jax 2019 Recap
Die JAX in Mainz rückt näher und auch Christoph ist wieder als Speaker mit an Bord. Dieses Jahr spricht er in seinen Vorträgen über Neuronale Netze und das TensorFlow-Training auf der JVM.
-
24 Apr. 2019
KI leicht erklärt - Teil 4: Die Grundlagen des Machine Learning
Nachdem wir uns im vorigen Artikel damit beschäftigt haben, wie die klassische KI funktioniert, wollen wir diesmal einen Blick auf das Machine Learning (maschinelles Lernen, auch abgekürzt als ML) werfen.
-
08 Apr. 2019
KI leicht erklärt - Teil 3: Methoden der klassischen KI
Im vorherigen Beitrag haben wir unsere anfängliche Definition von künstlicher Intelligenz um zwei Unterscheidungen erweitert: Unterschieden wird einerseits zwischen starker und schwacher KI (Terminator & Science Fiction vs. Status Quo), sowie zwischen klassischer KI und dem Machine Learning.
-
21 März 2019
KI leicht erklärt - Teil 2: Klassische KI, Neuronale Netze und Deep Learning
Die Künstliche Intelligenz (KI) ist so alt wie die Informatik selbst. Rechnen, das Ziehen logischer Schlüsse, das Durchführen komplexer Anweisungen… all das war vor der Erfindung des Computers dem Menschen vorbehalten.
-
07 März 2019
KI leicht erklärt - Teil 1: Was ist KI?
Was ist Künstliche Intelligenz? Oder vielmehr: Wie funktioniert eigentlich KI? Vom Haushaltshelfer bis zum Endzeitszenario - bei kaum einem Thema klaffen öffentliche Wahrnehmung, Forschungsstand und Realität so weit auseinander wie bei der KI.
-
06 Aug. 2018
DL4J Workshop auf dem ML Summit in Berlin
Am 1. und 2. Oktober findet in Berlin der erste ML Summit statt. In 12 Worshops in drei parallelen Tracks vermitteln Experten Praxiswissen zu den Themen Applications for Business, Machine Learning Basics & Tools und Specialized Topics.
-
29 Jan. 2018
Enterprise TensorFlow 4 - Eine TensorFlow Session in Java ausführen
Eine TensorFlow Session wird in Java genauso ausgeführt wie in Python. Dieser Post zeigt wie.
-
23 Jan. 2018
Enterprise TensorFlow 3 - Ein SavedModel in Java laden
Teil in der Serie über Java / TensorFlow Interoperabilität, der zeigt, wie man ein TensorFlow SavedModel in Java lädt.
-
23 Jan. 2018
Enterprise Tensorflow: Code Beispiele
Ein Überblick über die Beispielprojekte zum Thema TensorFlow / Java Integration
-
22 Jan. 2018
Enterprise TensorFlow 2 - Wie man ein trainiertes Modell speichert
Teil 2 in der Serie über Java / TensorFlow Interoperabilität, in dem es darum geht ein Modell so zu speichern, dass es in anderen Umgebungen wiederverwendet werden kann.
-
11 Jan. 2018
TensorFlow und Java - Ein Interview mit entwickler.de
Auf der ML Konferenz 2017 in Berlin ist unser CTO zum Thema TensorFlow / Java Interoperabilität interviewt worden.
-
30 Nov. 2017
Enterprise Tensorflow Teil 1 - Python vs. Java
Dies ist der erste Teil einer Reihe von Posts über Java und Tensorflow Interop. Es ist eine ausführlichere Version meines Vortrags auf der ML Conference 2017 in Berlin.
-
15 Nov. 2017
ML Konferenz 2017 in Berlin
Eine Ankündigung für meine Präsentation auf der ML Konferenz 2017 in Berlin