KI-Wissenschaft
Künstliche Intelligenz ist eine Ansammlung verschiedener Wissenschaften :
- Maschinelles Lernen (ML)
- Neuronale Netze (NN)
- Tiefes Lernen (DL)
- Große Daten
KI-Wissenschaftler
KI-Wissenschaftler entwickeln Software mit Algorithmen, die Aufgaben erledigen können, die normalerweise menschliche Intelligenz erfordern.
KI-Wissenschaftler können Experten in mehreren KI-Disziplinen sein:
- Angewandte Mathematik
- Computerstatistik
- Informatik
- Maschinelles Lernen
- Tiefes Lernen
Einige KI-Wissenschaftler verfügen auch über erhebliche Big-Data-Erfahrung:
- Business Intelligence
- Datenbank Design
- Data-Warehouse-Design
- Data-Mining
- SQL-Abfragen
- SQL-Berichterstellung
Schwache KI
Schwache künstliche Intelligenz ist auf bestimmte oder enge Bereiche beschränkt, wie die meisten KIs, die wir heute um uns herum haben:
- Suchmaschinen
- Apples Siri
- Cortana von Microsoft
- Amazons Alexa
- Watson von IBM
Schwache KI wird auch als Narrow AI bezeichnet.
Schwache KI simuliert die menschliche Wahrnehmung im Gegensatz zu starker KI, die über menschliche Wahrnehmung verfügt .
Starke KI
Starke künstliche Intelligenz ist die Art von KI, die die menschliche Intelligenz nachahmt.
Starke KI zeigt die Fähigkeit zu denken, zu planen, zu lernen und zu kommunizieren.
Starke KI ist die theoretische nächste Stufe der KI: True Intelligence .
Starke KI bewegt sich in Richtung Maschinen mit Selbstbewusstsein, Bewusstsein und objektiven Gedanken.
Maschinelles Lernen (ML)
Die klassische Programmierung verwendet Programme, um Ergebnisse zu erzeugen:
Traditionelles Rechnen
Daten + Computerprogramm = Ergebnis
Maschinelles Lernen verwendet Ergebnisse, um Programme (Algorithmen) zu erstellen:
Maschinelles Lernen
Daten + Ergebnis = Computerprogramm
"Maschinelles Lernen ist ein Studiengebiet, das Computern die Fähigkeit gibt, zu lernen, ohne programmiert zu werden."
Arthur Samuel (1959)
Neuronale Netze (NN)
Eine der bedeutendsten Entdeckungen der Geschichte ist die Leistungsfähigkeit neuronaler Netze (NN).
In neuronalen Netzwerken werden viele Datenschichten, Neuronen genannt , zusammengefügt oder übereinander gestapelt, um neue Datenebenen zu berechnen.
Häufig verwendete Kurznamen:
- DNN Deep Neural Network
- CNN Convolutional Neural Network
- RNN Recurrent Neural Network
Tiefes Lernen (DL)
Deep Learning sind Algorithmen, die neuronale Netze verwenden , um übergeordnete Daten zu extrahieren.
Jede nachfolgende Schicht verwendet die vorhergehende Schicht als Eingabe.
Beispielsweise verwendet optisches Lesen niedrige Schichten zum Identifizieren von Kanten und höhere Schichten zum Identifizieren von Buchstaben.
Deep Learning hat zwei Phasen:
1. Training: Eingabedaten werden verwendet, um die Parameter des Modells zu berechnen.
2. Inferenz: Das "trainierte" Modell gibt Daten aus jeder gegebenen Eingabe aus.
Die Deep-Learning-Revolution
Die Deep-Learning-Revolution ist da!
Die Deep-Learning-Revolution begann um 2010. Seitdem wurde Deep Learning zur Lösung vieler „unlösbarer“ Probleme eingesetzt.
Beispiele
Convolutional Neural Networks (CNNs)
Deep CNNs wie ResNeta und Inception haben die Fehlerquote in der ImageNet - Klassifizierung von 25 % im Jahr 2011 auf 5 % im Jahr 2017 gesenkt.
ImageNet ist eine Bilddatenbank, die gemäß der WordNet-Hierarchie organisiert ist, in der jeder Knoten der Hierarchie Hunderte und Tausende von Bildern enthält. ImageNet ist eine nützliche Ressource für Forscher, Pädagogen, Studenten und alle anderen mit einer Leidenschaft für Bilder.
WordNet ist eine lexikalische Datenbank semantischer Beziehungen zwischen Wörtern in über 200 Sprachen. Es ist als eine Kombination aus einem Wörterbuch und einem Thesaurus organisiert und verbindet Wörter in semantischen Beziehungen unter Verwendung von Synonymen, Hyponymen und Meronymen.
Wiederkehrende neuronale Netze (RNNs)
RNNs helfen bei der Erstellung von Musikpartituren und neuartigen Instrumentenklängen:
https://magenta.tensorflow.org/demos .
Geschichte der KI
1950 | Alan Turing veröffentlicht „Computing Machinery and Intelligence“ |
1956 | AI erstmals von John McCarthy in einer akademischen Konferenz erwähnt |
1957 | Erste Programmiersprache für Numerisches und Wissenschaftliches Rechnen (FORTRAN) |
1958 | Erste KI-Programmiersprache (Lisp) |
1959 | Arthur Samuel verwendete den Begriff „Machine Learning“ |
1961 | Erster Industrieroboter (Unimate) am Fließband bei General Motors. |
1965 | ELIZA von Joseph Weizenbaum war das erste interaktive Programm, das zu beliebigen Themen kommunizieren konnte |
1972 | Erste logische Programmiersprache (PROLOG) |
1997 | Deep Blue (IBM) schlägt den Weltmeister im Schach |
2002 | Der erste Reinigungsroboter (Roomba) |
2005 | Selbstfahrendes Auto (STANLEY) gewinnt DARPA |
2008 | Durchbruch in der Spracherkennung (Google) |
2011 | Ein neuronales Netz überzeugt den Menschen bei der Verkehrszeichenerkennung (99,46 % vs. 99,22 %) |
2011 | Apple-Siri |
2011 | Watson (IBM) gewinnt Jeopardy! |
2014 | Amazon Alexa |
2014 | Microsoft Cortana |
2014 | Selbstfahrendes Auto (Google) besteht staatliche Fahrprüfung |
2015 | Google AlphaGo hat im Brettspiel Go verschiedene menschliche Champions besiegt |
2016 | Der menschliche Roboter Sofia von Hanson Robotics |