KI-Wissenschaft

Künstliche Intelligenz ist eine Ansammlung verschiedener Wissenschaften :

  • Maschinelles Lernen (ML)
  • Neuronale Netze (NN)
  • Tiefes Lernen (DL)
  • Große Daten
Weak Machine Learning Neural Networks Big Data Deep Learning Strong

KI-Wissenschaftler

KI-Wissenschaftler entwickeln Software mit Algorithmen, die Aufgaben erledigen können, die normalerweise menschliche Intelligenz erfordern.

KI-Wissenschaftler können Experten in mehreren KI-Disziplinen sein:

  • Angewandte Mathematik
  • Computerstatistik
  • Informatik
  • Maschinelles Lernen
  • Tiefes Lernen

Einige KI-Wissenschaftler verfügen auch über erhebliche Big-Data-Erfahrung:

  • Business Intelligence
  • Datenbank Design
  • Data-Warehouse-Design
  • Data-Mining
  • SQL-Abfragen
  • SQL-Berichterstellung

Schwache KI

Schwache künstliche Intelligenz ist auf bestimmte oder enge Bereiche beschränkt, wie die meisten KIs, die wir heute um uns herum haben:

  • Suchmaschinen
  • Apples Siri
  • Cortana von Microsoft
  • Amazons Alexa
  • Watson von IBM

Schwache KI wird auch als Narrow AI bezeichnet.

Schwache KI simuliert die menschliche Wahrnehmung im Gegensatz zu starker KI, die über menschliche Wahrnehmung verfügt .


Starke KI

Starke künstliche Intelligenz ist die Art von KI, die die menschliche Intelligenz nachahmt.

Starke KI zeigt die Fähigkeit zu denken, zu planen, zu lernen und zu kommunizieren.

Starke KI ist die theoretische nächste Stufe der KI: True Intelligence .

Starke KI bewegt sich in Richtung Maschinen mit Selbstbewusstsein, Bewusstsein und objektiven Gedanken.

Man muss sich nicht entscheiden, ob eine Maschine „denken“ kann.
Man muss nur entscheiden, ob eine Maschine so intelligent handeln kann wie ein Mensch.

Alan Turing


Maschinelles Lernen (ML)

Die klassische Programmierung verwendet Programme, um Ergebnisse zu erzeugen:

Traditionelles Rechnen

Daten + Computerprogramm = Ergebnis

Maschinelles Lernen verwendet Ergebnisse, um Programme (Algorithmen) zu erstellen:

Maschinelles Lernen

Daten + Ergebnis = Computerprogramm

"Maschinelles Lernen ist ein Studiengebiet, das Computern die Fähigkeit gibt, zu lernen, ohne programmiert zu werden."

Arthur Samuel (1959)


Neuronale Netze (NN)

Eine der bedeutendsten Entdeckungen der Geschichte ist die Leistungsfähigkeit neuronaler Netze (NN).

In neuronalen Netzwerken werden viele Datenschichten, Neuronen genannt , zusammengefügt oder übereinander gestapelt, um neue Datenebenen zu berechnen.

Häufig verwendete Kurznamen:

  • DNN Deep Neural Network
  • CNN Convolutional Neural Network
  • RNN Recurrent Neural Network

Tiefes Lernen (DL)

Deep Learning sind Algorithmen, die neuronale Netze verwenden , um übergeordnete Daten zu extrahieren.

Jede nachfolgende Schicht verwendet die vorhergehende Schicht als Eingabe.

Beispielsweise verwendet optisches Lesen niedrige Schichten zum Identifizieren von Kanten und höhere Schichten zum Identifizieren von Buchstaben.

Deep Learning hat zwei Phasen:

1. Training: Eingabedaten werden verwendet, um die Parameter des Modells zu berechnen.

2. Inferenz: Das "trainierte" Modell gibt Daten aus jeder gegebenen Eingabe aus.


Die Deep-Learning-Revolution

Die Deep-Learning-Revolution ist da!

Die Deep-Learning-Revolution begann um 2010. Seitdem wurde Deep Learning zur Lösung vieler „unlösbarer“ Probleme eingesetzt.


Beispiele

Convolutional Neural Networks (CNNs)

Deep CNNs wie ResNeta und Inception haben die Fehlerquote in der ImageNet - Klassifizierung von 25 % im Jahr 2011 auf 5 % im Jahr 2017 gesenkt.

ImageNet ist eine Bilddatenbank, die gemäß der WordNet-Hierarchie organisiert ist, in der jeder Knoten der Hierarchie Hunderte und Tausende von Bildern enthält. ImageNet ist eine nützliche Ressource für Forscher, Pädagogen, Studenten und alle anderen mit einer Leidenschaft für Bilder.

WordNet ist eine lexikalische Datenbank semantischer Beziehungen zwischen Wörtern in über 200 Sprachen. Es ist als eine Kombination aus einem Wörterbuch und einem Thesaurus organisiert und verbindet Wörter in semantischen Beziehungen unter Verwendung von Synonymen, Hyponymen und Meronymen.

Wiederkehrende neuronale Netze (RNNs)

RNNs helfen bei der Erstellung von Musikpartituren und neuartigen Instrumentenklängen:
https://magenta.tensorflow.org/demos .


Geschichte der KI

1950Alan Turing veröffentlicht „Computing Machinery and Intelligence“
1956AI erstmals von John McCarthy in einer akademischen Konferenz erwähnt
1957Erste Programmiersprache für Numerisches und Wissenschaftliches Rechnen (FORTRAN)
1958Erste KI-Programmiersprache (Lisp)
1959Arthur Samuel verwendete den Begriff „Machine Learning“
1961Erster Industrieroboter (Unimate) am Fließband bei General Motors.
1965ELIZA von Joseph Weizenbaum war das erste interaktive Programm, das zu beliebigen Themen kommunizieren konnte
1972Erste logische Programmiersprache (PROLOG)
1997Deep Blue (IBM) schlägt den Weltmeister im Schach
2002Der erste Reinigungsroboter (Roomba)
2005Selbstfahrendes Auto (STANLEY) gewinnt DARPA
2008Durchbruch in der Spracherkennung (Google)
2011Ein neuronales Netz überzeugt den Menschen bei der Verkehrszeichenerkennung (99,46 % vs. 99,22 %)
2011Apple-Siri
2011Watson (IBM) gewinnt Jeopardy!
2014Amazon Alexa
2014Microsoft Cortana
2014Selbstfahrendes Auto (Google) besteht staatliche Fahrprüfung
2015Google AlphaGo hat im Brettspiel Go verschiedene menschliche Champions besiegt
2016Der menschliche Roboter Sofia von Hanson Robotics
Bilden