Our Blog

Disruptives Szenario 3: Smartness und Künstliche Intelligenz

Nichts hat die Welt in den letzten zwanzig Jahren mehr verändert als das Internet. Die Verknüpfung von Rechnern rund um den Globus mit einem Protokoll, das Texte, Bilder und Filme auf jedem  Computer lesbar macht, hat die Art und Weise, wie wir leben und arbeiten nachhaltig verändert. Nirgends sonst ist der technische Fortschritt so rasant, mit einer exponentiellen Steigerung der technischen Leistung und zu allem noch begleitet von einem fast ebenso schnellen Sinken der Preise. Die nächsten zwanzig Jahre der Informations- und Kommunikationstechnologien werden ebenso disruptive Wirkungen haben wie die vergangenen.

Folie5Das Internet wird heute laufend in die realen Gegenstände verlängert. Immer mehr Dinge der realen Welt, wie beispielsweise die Klimatechnik eines Hauses, das Auto, ja selbst der Blumentopf sind im Internet selbst repräsentiert. Damit können sie über das Internet ferngesteuert werden von jedem denkbaren Eingabegerät: Vom Computer, dem Smartphone oder dem Tablet. Auch die Sensortechnik befindet sich in einem Sturmlauf: Die realen Gegenstände werden mittels Sensoren dazu in die Lage versetzt, ihre Umwelt wahrzunehmen: Temperatur, Bewegung, Bewegungsveränderung, Berührung, Schadstoffe in der Luft, um nur einiges zu nennen. Diese umweltsensiblen Gegenstände können ihre Messungen via Internet ihomelabmitteilen. Wenn entsprechende Algorithmen hinterlegt sind, können diese Daten interpretiert und sie einem Nutzer zur Kenntnis gebracht werden, damit dieser angezeigte Aktionen unternimmt. Möglich ist aber auch, dass die Dinge eigenständig aufgrund der veränderten Umweltbedingungen agieren. An der Hochschule für Technik und Architektur hat das Team von Alexander Klapproth das iHomeLab aufgebaut. In diesem Haus sind alle Dinge miteinander verknüpft. Das demonstrierte Szenario beschreibt die Situation einer betagten, alleine lebenden Frau. Wenn sie hinfällt und nicht mehr aufsteht, merkt dies das Haus (z.B. mit einem Sturzsensor, den die Frau auf sich trägt oder mit einem Fussboden, der mit Sensoren ausgestattet ist). Steht die Frau nicht mehr auf, versucht das Haus zuerst mögliche Missverständnisse auszuräumen: über den TV-Screen spricht es die Verunglückte an. Gibt sie keine Antwort (keine Entwarnung), schaltet das Haus eine Bildleitung frei auf das Handy eines zuvor bezeichneten Verwandten. Auch der kann versuchen, mit seiner Angehörigen in Kontakt zu treten. Zugleich setzt sich ein kleiner Gesundheitsroboter in Bewegung, der die Vitaldaten der Frau misst: Puls, Atmung, Temperatur. Weil der Angehörige sich zu weit weg befindet, alarmiert das Haus automatisch die Ambulanz, nicht ohne die Personaldaten und die gemessenen Vitalfunktionswerte gleich mitzuliefern. Wenn die Sanitäter schliesslich eintreffen, „weiss“ das Haus, dass es seine Türen automatisch öffnen soll, damit diese der Frau die notwendige Hilfe leisten können.

Damit sind zwei der drei Funktionen des intelligenten Hauses beschrieben: Die Funktion eines Wohnassistenten (assistent living) und die Sicherheitsfunktion (Zutrittsregelung). Die dritte Funktion ist vielleicht das wichtigste angesichts der Energiewende: Die Intelligenz des Hauses hilft den Energiehaushalt optimal zu regeln. Wird das Haus verlassen, können sich beispielsweise die Rollladen schliessen, um Wärmeverluste zu minimieren. Der Kühlschrank wird einige Minuten pro Stunde vom Strom genommen ohne die Kühlkette zu beeinträchtigen – nämlich dann, wenn das Stromnetz durch andere Nutzungen belastet ist. An das Potenzial smarter Haustechnik glaubt offensichtlich auch Google, hat der Internetkonzern doch im Januar 2014 den Thermostate-Hersteller Nest übernommen. Dafür zahlt Google 2.3 Mrd. Dollar und erhält Zugang zu den Daten. Nest hat in der Haustechnik Sensoren eingebaut, damit das Klima den jeweiligen Personen anpasst werden kann. Grosse Mühe gibt sich Nest, dass der Bewohner sich nicht fremdgesteuert vorkommen, was viele kennen aus den Rollladen, die bei der kleinsten Sonneneinstrahlung automatisch runterfahren. Erkennen die Sensoren beispielsweise Rauchentwicklung, genügt es, vor dem Nest-Gerät zu winken, wenn der Rauch vom Kochen herrührt und nichts zu bedeuten hat. Eine ansonsten automatische Alarmierung der Feuerwehr bleibt dann aus.

Smartness in den Dingen erhöht zudem die Sicherheit. Bereits 1999 erfand Steve Gass aus Oregon (USA) eine intelligente Tischsäge(SawStop). Tischsägen sind Quelle vieler Unfälle. Aus Unachtsamkeit gerät immer wieder ein Finger in die Säge, die zum Zersägen von Holz mit 5000 Umdrehungen in der Minute ausgestattet ist. Steve Gass machte seine Säge intelligent: Weil sie beim Sägen zugleich die elektrische Leitfähigkeit des zu bearbeitenden Materials misst, erkennt die Säge, wenn statt des Holzes ein Finger kommt, denn ein Finger ist deutlich leitfähiger als ein Stück Holz. Wenn das passiert, stoppt die Säge in weniger als einer Millisekunde und rückt unter den Tisch. Am Finger bleibt allenfalls eine kleine Hautschürfung, die mit einem Pflaster aus der Betriebsapotheke genügend behandelt ist. Weil auf das Modul, welches die Säge anhält, ungeheure Kräfte wirken (1000 G), geht das Modul dabei kaputt. Der Ersatz kostet allerdings lediglich 60 Dollar – deutlich weniger, als was ein Chirurg verlangen würde, wenn er den Finger wieder anzunähen versuchen würde, ganz zu schweigen von den Heilungs- und Rehabilitationskosten.

 

Smartness wird auch den Strassenverkehr revolutionieren. Ein heutiger Mittelklasse-Wagen hat verschiedene intelligente Assistenzsysteme bereits eingebaut: Der Spurhalte-Assistenz hält das Auto in der Spur. Die automatische Parkhilfe parkt selbständig ein, wenn der Fahrer neben die Lücke fährt. Der geschwindigkeitsabhängige Tempomat hält genügend Sicherheitsabstand zum vorausfahrenden Fahrzeug, ohne dass der Lenker etwas unternehmen muss. Bei freier Bahn beschleunigt das Auto wieder auf die gewünschte Reisegeschwindigkeit. In naher Zukunft sprechen Autos mit anderen Autos, tauschen also beispielsweise Daten des EPS-Systems aus und melden einander lokal auftretende Fahrbahngefahren (z.B. Eis), so dass das dahinterfahrende Fahrzeug sich bereits darauf einstellen kann (z.B. die Geschwindigkeit reduzieren). Die Autos werden aber auch vermehrt mit der Strasse sprechen, etwa um Baustellen abzusichern. Und sie werden von der Strasse zeitgenau über lokale Hindernisse wie Staus informiert. Das Navigationssystem kann dann beispielsweise alarmieren, dass dreihundert Meter weiter vorne soeben ein Unfall passiert ist. Diese Systeme werden den Verkehr sicherer machen und – wenn die Autos ganz von selber fahren können – die bestehende Kapazität der Strassen besser ausnützen helfen und so Stockungen des Verkehrs reduzieren helfen.

 Big Data und Künstliche Intelligenz

Die wachsende Zahl von Sensoren, aber auch die Navigationsgeräte in Handys und anderen Gadgets, tragen dazu bei, dass das weltweit vorhandene Datenvolumen immer weiter wächst. 2013 gab es bereits zwei Zettabytes an gespeicherten Daten. Ein Zettabyte ist eine Trilliarde Bytes oder eine Trillion mal mehr Daten (1015), als die mehrbändige Encyclopedia Britannica umfasst. Und jeden Tag kommen fünfzig Petabytes dazu – das ist eine Zahl mit 15 Nullen (das Zettabyte hat 21 Nullen). Wahrlich: Big Data. Das Problem mit diesen Daten besteht aber Folie6darin, dass sie für sich genommen noch kaum etwas wert sind. Sie sind zwar da, aber sie ergeben noch keinen Sinn. Die meisten Daten, die neu dazu kommen, sind nicht strukturiert, stellen also keine Zahlen dar sondern sind Sensordaten, Filmdaten, Bilder, Sprachdaten. Solche Daten sind vage und unsicher und nicht ohne weiteres zu deuten.

Abhilfe schaffen kann hier Künstliche Intelligenz. 1997 gelang es IBM, mit Deep Blue einen Schachcomputer zu konstruieren, der besser als der beste menschliche Spieler Schach spielen konnte. Deep Blue schlug den Schachgrossmeister Garri Kasparov in einem regulären Wettkampf. Deep Blue basierte auf enormer Rechenleistung. Pro Sekunde konnte er 100 bis 200 Stellungen berechnen. Für einen Laien ist noch vorstellbar, dass ein Computer in einem Spiel, bei dem die Felder klar begrenzt und alle Züge eindeutig definiert sind, mehr und weiter vorausdenken kann, als dies ein Mensch kann. Als IBM aber im Februar 2011 den Nachfolger Watson präsentierte, staunte die Welt. Watson stellte sich im beliebten amerikanischen Wissensquiz Jeopardy! zwei menschlichen Gegnern, die aufgrund ihrer immensen Allgemeinbildung wahre Champions waren. Beide hatten sie in mehreren Spielshow zusammen schon je über eine Million Dollar Preisgeld gewonnen. In diesem Quiz werden Fragen zu ganz unterschiedlichen Wissensgebieten gestellt. Schwierig daran ist überdies, dass die Fragen zuweilen mit Sprachwitz oder Ironie formuliert sind. Die Spieler wählen aus einem Wissensgebiet einen Geldbetrag, hinter dem sich eine Frage verbirgt. Die Frage wird vorgelesen und wer am schnellsten reagiert, hat die erste Chance zu antworten. Stimmt die Antwort, wird der angezeigte Betrag dem Konto gutschrieben, ist die Antwort falsch, wird er abgezogen und die Mitkonkurrenten erhalten die Möglichkeit zu antworten. Watson (benannt nach dem Gründer von IBM, Thomas I. Watson) war ein revolutionärer Fortschritt: Nicht nur verstand Watson natürliche Sprache, sei sie gesprochen oder geschrieben. Das alleine ist schon ein Meilenstein, die alle einzuschätzen wissen, die einmal mit Spracherkennung von Computern zu tun hatten, z.B. mit SIRI von iPhone. Das erlaubte den Programmierern, Watson mit Büchern, Tabellen, Bildern und anderen unstrukturierten Daten zu füttern und es erlaubte dem Quizmaster, Watson überhaupt eine Frage zu stellen. Darüber hinaus funktioniert Watson ganz anders als herkömmliche Computer: Herkömmliche Algorithmen definieren, was bei Vorliegen von bestimmten Daten als nächstes zu prozessieren sei. Der Weg zum Ergebnis ist also in vielen Varianten vorprogrammiert, so dass zumindest der Programmierer immer nachvollziehen kann, warum am Schluss dieses und nicht ein anderes Ergebnisse resultiert hat. Nicht so bei Watson: Dieser Computer bildet selbst Hypothesen dazu, was die Antwort auf die Frage sein könnte. Er stellt mehrere Hypothesen auf und überprüft in einem nächsten Schritt, welche Belege oder Evidenzen er findet, die eine seiner Hypothesen stützen. Auf diese Weise hat Watson in Jeopardy! immer mehrere Antworten geprüft. War er zu über 90 Prozent sicher, die richtige Antwort gefunden zu haben, zog er das Spiel an sich. In der Vorbereitung zur Quiz-Show haben die Ingenieure von IBM mit Watson trainiert – und sich dabei die dritte aussergewöhnliche Eigenschaft von Watson zunutze gemacht: Watson lernt eigenständig dazu. Wenn man ihm sagte, dass seine Antwort falsch sei, hat er daraus gelernt.

Zu Beginn des Jahres 2014 kündigte IBM an, Watson in eine eigene Geschäftseinheit zu überführen und stellte dafür über eine Millarde Dollar bereit. Drei Jahre nach der bemerkenswerten Quizshow ist Watson heute 24mal schneller und 2400 Prozent leistungsfähiger und 90 Prozent kleiner als 2011. Er passt nun in drei Pizza-Schachteln. Der neuen Geschäftseinheit werden mittelfristig gegen 2000 IT-Spezialisten, Programmierer, Industrie-Experten und Forscher angehören. Die neue Einheit umfasst drei Bereiche: Watson Discovery, Watson Analytics und Watson Explorer. Discovery soll beispielsweise Projekte in der Pharma- und Biotechindustrie unterstützen. Er soll helfen, die Forschung voranzutreiben und insbesondere die Zeit drastisch zu reduzieren, die es heute von der Entwicklung bis zur Markteinführung braucht. Die ersten Gehversuche in Medizin und pharmazeutischer Forschung waren offensichtlich sehr vielversprechend. Für eine US-amerikanische Krankenhauskette half das System mit, am konkreten Patienten die erfolgversprechendste Therapie zu definieren. Die entsprechende Gesellschaft wies darauf hin, dass bis heute rund die Hälfte aller Medikamente nach dem Versuch-Irrtum-Prinzip verschrieben werden. Ein intelligentes System, das riesige Mengen von Daten, Erfahrungsberichten und Forschungsergebnissen verarbeiten kann, verspricht diese Rate deutlich zu senken. Watson Analytics soll insbesondere bei der Visualisierung von Daten zu Diensten sein. Ohne Daten speziell aufbereiten und in Grafik-Programm übertragen zu müssen, sollen künftig grafische Darstellungen von Daten mittels Sprachbefehl angefordert werden können. Das ist ein wichtiger Schritt auf dem Weg, aus Big Data verwertbare Ergebnisse zu erkennen. Big Data ist auch die Stossrichtung von Watson Explorer: Hier geht es darum, in den riesigen Datenmengen Zusammenhänge zu erkennen, die vorher noch keiner gesehen hat. IBM wird Watson als Cloud-Programm bereitstellen und hat ankündigt, dass es in einigen Jahren ein Smartphone-App davon geben wird. Goodbye Siri, hello Watson!

foresight_eyeWatson ist nicht die einzige Künstliche Intelligenz. Aber mit IBM im Rücken, ist Watson sicher geeignet, die Welt zu verändern. Auch der Neurowissenschafter Sebastian Seung am MIT nutzt Künstliche Intelligenz, um die Kartierung der Neuronen der Retina mithilfe tausender spielbegeisterter Laien und Wissenschafter voranzutreiben. Er hat ein Spiel entwickelt, bei der Gamer Punkte sammeln können, in dem sie an diesem wissenschaftlichen Projekt einen Beitrag leisten. Dank Künstlicher Intelligenz kann jedermann am EyeWire-Projekt mitwirken, weil das System im Hintergrund die Spielaktivitäten lenkt und deutet. Dieses Beispiel weist darauf hin, wie tiefgreifend die Revolution sein wird.

 Das Ende des Textes – das neue Wissen

Das wissenschaftliche, aber als online-Spiel aufgesetzte Projekt EyeWire ist ein Beispiel für Gamification. Darunter versteht man die Verbindung von Spielelementen wie rasches Feedback, Belohnung oder Wettbewerb mit der Absicht, wissenschaftliche Ergebnisse zu erzielen, Verhalten zu verändern, soziale Verbesserungen zu erreichen oder einfach zu lernen. „m.Paani“ beispielsweise ist ein Loyalitätsprogramm für Mobiltelefon-Nutzer, das Mittel für soziale Projekte generiert. „Fun Theory“, von Volkswagen, gesponsert, setzt auf den Spieltrieb, um Menschen zu gesünderem Verhalten anzuregen, beispielsweise durch die Verwandlung einer Treppe in eine aufsteigende Klaviertastatur: Jeder Schritt erzeugt einen Ton, das Treppengehen also eine Abfolge von Tönen. Dafür lassen viele Menschen die Rolltreppe stehen und gehen zu Fuss, weil es Spass macht. Ein anderes Projekt im Rahmen der „Fun Theory“ manipuliert öffentliche Abfallkübel, so dass Menschen überall Abfall suchen und einwerfen, um den Effekt (eine Tonkulisse, die sich anhört als ob ein riesiger Brocken in eine tiefe Schlucht geworfen wird) wieder und wieder zu hören. Die Verschmelzung von Training und Spielen führt zudem die Videogame-Industrie und das Militär zusammen, seit immer häufiger das Militär auf ferngesteuerte Drohnen setzt. Sie teilen technische Innovationen, aber auch Spielinhalte und reale Missionsszenarien. Offenbar braucht ein Gamer viel weniger Training um eine Drohne steuern zu lernen als jemand, der wenig Spielpraxis mitbringt.

Die Industrialisierung hat den Produktionsprozess in viele kleine Einzelschritte zerlegt, die mit einem schöpferischen Werken kaum mehr etwas gemeinsam hatte. Mehr noch: Auch die Schulen wurden industrialisiert, in dem die Lernschritte mechanisiert und automatisiert wurden. Das Spiel geriet in seriösen Umfeldern in Verruf. Wie der spanische Spieltheoretiker und Gamer Flavio Escribano↵ in einem Aufsatz aus dem Jahr 2013 aufzeigt, fand während des vergangenen Jahrhunderts ein regelrechter De-Gamification-Prozess statt, der erst in den 70er Jahren hinterfragt wurde.

Die Digitalisierung hat dem Spielen wieder Auftrieb gegeben, nachdem schon zuvor über das „seriöse Spielen“ in einem edukativen Umfeld nachgedacht wurde.  Das ist keineswegs der einzige und schon gar nicht der wichtigste Effekt der Digitalisierung. Viel fundamentaler ist die Veränderung des Gefässes von Wissen. Bisher wurde Wissen zur Hauptsache in der Form von Texten gesammelt, vermittelt und überliefert. Nun liegen immer mehr Bilder, Filme, Grafiken vor, worin Wissen gespeichert ist. Der Text verliert zunehmend seine Vorrangstellung. Und damit auch das Buch als Trägermedium. Dass der Brockhaus sein Erscheinen im März 2014 einstellt und nur die Online-Version noch sechs Jahre weiterführen will, ist beredtes Zeugnis davon. Wissen ist aus den Buchdeckeln ausgebrochen und nun im weltweiten Netz für alle zugänglich. „Der Text ist tot. Es lebe das Wissen!“ (in Hohe Luft., 1/2014, p. 53ff) sagt einer, des er wissen muss: Klaus Ceynowa ist der stellvertretende Direktor der Bayrischen Staatsbibliothek, und damit Hüter einer Gattung von bisher zentralen Einrichtungen der Wissensspeicherung. In diesem Aufsatz beschreibt Ceynowa, dass es keine „Publikation“ mehr, die den aktuellen Stand des Wissens festhält, sondern ein sich dynamisch weiterentwickeltes Kontinuum eines Informationsstroms.  Während früher durch die Publikation das Wissen erst öffentlich wurde, erübrigt sich das heute. Damit schaffen wir uns allerdings auch neue Probleme: Die Sicherung eines fluiden, sich ständig veränderten Wissens ist schwierig, alleine schon weil die technischen Formate sich sehr schnell verändern, aber auch weil ein gesicherter Grund, nun das relevante zu wissen, für den Forschenden verloren geht. Dafür ist Wissen von überall abrufbar, situationsspezifisch und selbst geografisch angepasst durch die Georeferenzierung von Wissensinhalten durch die GPS-Systeme.

Weil die Form des Wissens und die Eigenart seiner Fixierung sich fundamental verändern, verändert sich auch das Lernen. Ceynowa glaubt, dass wir uns vom Bild des gründlich, Zeile für Zeile lesenden Lesers verabschieden müssen. An seiner Stelle kommt die Figur des sich in vernetzten Wissensräumen sich agil bewegenden Entdeckers.

Zurück zur Übersicht

Schlagwörter: ,

Comments & Responses