Inspiration

Künstliche Intelligenz

Liebe Leserinnen, liebe Leser,
ich lade Sie herzlich ein, mit mir Darmstadts digitale Seite zu entdecken und besser zu verstehen, was zwischen Bits & Bytes in unserer Heimatstadt so alles passiert. Als Informatikprofessorin, Wissenskabarettistin und Digital-optimistin sehe ich vor allem die Chancen der Digitalisierung, habe aber eventuelle Risiken und Nebenwirkungen immer fest im Blick. Übrigens erkläre ich das eine oder andere Digitale auch in Wort und Ton. Wenn Sie mögen, dann schauen Sie doch auch mal hier vorbei:
www.digitaloptimismus.de

Der Mensch als Vorbild für Bits & Bytes

Sind Sie auch manchmal kurz davor, Ihren heimischen Computer aus dem Fenster zu schmeißen oder das Smartphone im Klo zu versenken, weil die beiden einfach nicht machen, was sie sollen? Tun Sie es nicht. Seien Sie milde. Denn so ein Computer ist doch auch nur ein Mensch wie Sie und ich.

Der Mensch. Er kann denken. Idealerweise logisch. Als Grundlage seines ebenso logischen Handelns. Wie gesagt: idealerweise. Aber dass wir denken könn(t)en, steht außer Frage. Meistens nach, manchmal auch voraus und gelegentlich sogar um. All das gehört zu der uns Menschen ausmachenden Intelligenz. Als ehemalige LGG-Schülerin darf ich an dieser Stelle auf den lateinischen Wortstamm „intellegere“ verweisen, was übersetzt unter anderem „verstehen“ heißt. Na bitte, wer sagt’s denn. Die alten Römer wieder. Und als ob das Verstehen an sich noch nicht genug wäre, sind wir Menschen sogar in der Lage, über uns selbst und unser Denken zu reflektieren. Theoretisch.

Mensch oder Maschine oder Mensch?

Nun arbeiten seit Jahren Wissenschaftler und Wissenschaftlerinnen der verschiedensten Disziplinen, insbesondere natürlich der Informatik daran, mittels Computern zu automatisieren, was uns Menschen bereits in der Basis-Ausführung mitgegeben ist: Problemlösungskompetenz, eine rasche Auffassungsgabe, die Fähigkeit zur Selbstreflexion und alles andere, was Intelligenz so ausmacht. „Künstliche Intelligenz“ (KI) bzw. „Artificial Intelligence“ (AI) heißen die entsprechenden Fachbegriffe. Eine echte Herausforderung, denn das Gehirn und wie dessen jeweiliger Besitzer damit arbeitet, sind eine komplexe Angelegenheit. Dennoch: die KI-Forschung hat in den vergangenen Jahren rasante Fortschritte gemacht.

Suchen. Künstlich intelligent.

Natürlich stehen hinter jeder App auf Ihrem Smartphone, hinter jeder Software auf Ihrem Laptop nach wie vor Menschen, die solche Anwendungen zunächst entwerfen und anschließend in einer für den Computer verständlichen Sprache programmieren. Diese Programme können beeindruckend viel und sie lernen permanent dazu. Auch Dank uns und unserem Benutzungsverhalten. Nehmen Sie zetwa Google und seine sich automatisch vervollständigenden Suchanfragen. Dieser Effekt basiert unter anderem darauf, dass die „allmächtige Suchmaschine“ auswertet, nach was auf der Welt über den Tag hinweg so gesucht wird. Und natürlich nach was Sie suchen. (An dieser Stelle bin ich immer sehr froh, dass Google keinen Zugriff auf meine Handtasche hat.) Auf Grundlage dieser und anderer Informationen stellt Ihnen Google dann eine entsprechende Trefferliste zusammen. Probieren Sie es einmal aus: Wenn Sie nach einem bestimmten Begriff suchen, dann erhalten Sie garantiert nicht die gleiche Trefferliste, wie wenn jemand anderes denselben Begriff ergoogelt.

Die Super-Intelligenz

Der derzeit wohl bekannteste „Vertreter“ künstlicher Intelligenz ist das Computerprogramm Watson. Bereits 2011 machte es von sich reden, als es bei der Quizsendung Jeopardy! im US-amerikanischen Fernsehen gewann. Mit seinen enormen kognitiven Fähigkeiten ist Watson besonders bei der Verarbeitung von riesigen unstrukturierten Datenmengen ein echter Superheld. Und das macht ihn interessant etwa für den Einsatz in der medizinischen Diagnostik oder auch für die Verarbeitung von Finanzdaten. Eben überall dort, wo extrem große Datenmengen ausgewertet werden müssen und über die haben wir ja beim letzten Mal schon gesprochen: Big Data, Sie erinnern sich bestimmt. Benannt ist Watson übrigens nach dem Unternehmer Thomas J. Watson (1874-1956). Jenem berühmten IBM-Chef, der 1943 den folgenden Satz geäußert haben soll: „Ich glaube, dass es auf der Welt einen Bedarf von vielleicht fünf Computern geben wird.“ Errare humanum est.