Blogbeitrag vom 30.8.2016

Aus dem Englischen übersetzt von Franziska Wettstein

Hin zur totalen Automatisierung?

Die Zukunft der Menschen und Maschinen

(English text below)

 

Am 7 Mai 2016 schaltete Joshua Brown den Autopilot seines Tesla Model S ein. Der Wagen fuhr mit voller Geschwindigkeit in einen LWK. Brown kam bei dem Zusammenstoss ums Leben (1). Während die Firma aussagt, dass sich Tesla statistisch gesehen gut hält – immerhin war es der erste Tod in 130 Meilen, was eine um einiges bessere Rate ist, als die in den U.S.A. übliche – wirft der Unfall Fragen über selbstfahrende Autos auf. Werden Fahrerinnen und Fahrer dem Autopiloten zu sehr vertrauen? Können die Autopiloten in Autos so intelligent werden, dass sich solche Unfälle in Zukunft vermeiden lassen? Können Menschen aufmerksam bleiben, wenn die Steuerung des Wagens vom Autopiloten übernommen wird? Ist ein durch den Autopiloten verursachten Tod schlimmer, d.h. schwieriger zu akzeptieren, als ein Tod der durch einen Fehler eines menschlichen Fahrers oder einer menschlichen Fahrerin verursacht wurde? Sind wir bereit, die Risiken zu akzeptieren, und falls nicht, wieso sind wir bereit diese Risiken im Falle von Flugzeugen zu akzeptieren? Sollen wir überhaupt selbstfahrende Autos besitzen?

Diese Probleme betreffen nicht nur selbstfahrende Autos. Es gibt Pläne, allerlei Technologien in verschiedenen Lebensbereichen zu automatisieren. Fortschritte in den Bereichen Robotik und künstliche Intelligenz scheinen sich zu beschleunigen. Firmen wie Google stecken hohe Summen an Forschungsgeldern in diese Bereiche. Auch im Gebiet der Kriegsführung gibt es Automatisierungspläne (zum Beispiel Drohnen) und selbst im Gesundheitssystem – ein Bereich von dem traditionell angenommen wird, dass Menschen unersetzbar sind – werden sogenannte „Care Robots“ eingeführt. Die Automatisierung ist nicht mehr nur auf Fabriken beschränkt; die Roboter sind hier. Aber: was kann und soll überhaupt automatisiert werden? Sind wir bereit dieses Risiko zu tragen? Was sind die ethischen und rechtlichen Konsequenzen?

Obwohl immer intelligentere Maschinen entstehen, die Aufgaben übernehmen können von denen man glaubte, dass sie für Maschinen unmöglich seien – man denke an IBMs Watson (2) oder an Googles „DeepMind“ (3) – so kann doch nicht alles automatisiert werden. Dies liegt daran, dass Menschen eine andere Art von Intelligenz haben. Sie haben Körper und Emotionen; sie sind keine Maschinen. Sie sind biologische und kulturelle Geschöpfe. Sie können hochkreativ sein, und ihrer Welt Sinn geben. Sie empfinden – sie kümmern sich nicht umeinander um eine Aufgabe korrekt auszuführen, sondern können dies aus wahrhaft empfundener Zuneigung heraus tun. Sie können und sollen nicht auf Informationsverarbeitung reduziert werden. Sie sind keine Gegenstände; sie leben und empfinden. Menschen werden nie gänzlich von Maschinen ersetzt werden können.

Andererseits sind auch die Tage gezählt, in denen die Automatisierung auf simple Aufgaben beschränkt war. Immer komplexere Aufgaben können durch Algorithmen ausgeführt werden; oder so scheint es zumindest. Das Steuern von Autos ist eines von vielen Beispielen. Servicepersonal kann ersetzt werden. Man sagt auch, dass Journalistinnen und Journalisten, und sogar Ärztinnen und Ärzte in Zukunft ersetzbar sein werden. Forscher an der Universität Oxford sagen voraus, dass in den nächsten zwei Jahrzehnten 47% aller Arbeiten automatisiert werden können (4). Wenn dies Realität wird, müssen sich viele Menschen um ihre Arbeitsstelle sorgen. Dies geschah bereits im Zeitalter der Industrialisierung, und es könnte erneut geschehen, im von Erik Brynjolfsson und Andrew McAfee sogenannten „zweiten Zeitalter der Maschine“ (the second machine age) (5).

Doch selbst wenn weniger Arbeiten als vorhergesagt automatisiert werden und Menschen nebst den Robotern in vielen Arbeiten involviert bleiben, ist es wichtig, über die potentiellen psychologischen, ethischen und sozialen Konsequenzen der Automatisierung nachzudenken. Wie wird die Automatisierung unsere Erfahrungen von gewissen Handlungen wie etwa Schreiben und Kommunizieren umgestalten? Wie werden wir das Handeln an sich verstehen? Sollte die Automatisierung in einigen Bereichen, wie zum Beispiel dem Gesundheitssystem, eingeschränkt werden? Welche Arbeiten sollten wir an Roboter delegieren, und welche sollen wir Menschen selbst noch ausführen? Wie können Menschen und Maschinen in spezifischen Bereichen zusammenarbeiten? Auf welche Art von Gesellschaft bewegen wir uns zu, sollte der momentane Trend der Automatisierung fortdauern? Ist Automatisierung für alle gut? Wer werden die Gewinnerinnen und Gewinner sein, wer die Verliererinnen und Verlierer? Wie sollten wir politisch mit den Risiken und Herausforderungen der Automatisierung umgehen?

Selbst wenn es kein Roboter-Armageddon geben wird, selbst wenn Maschinen nicht alles gänzlich übernehmen werden, es ist wichtig diese ethischen und sozialen Fragen jetzt anzupacken, zu einer Zeit in der diese Technologien noch in der Entstehungs- und Testphase sind. Sonst bewegen wir uns blind und automatisch in eine Zukunft die niemand will.


References

 



Originaltext: Towards total automation? The future of humans and machines Mark Coeckelbergh

On 7 May 2016, Joshua Brown put his Tesla model S into autopilot mode. The car drove full speed under a trailer. He died in the crash. (1) While the company suggested that statistically Tesla is still doing quite well – this was the first death in 130 million miles, a much better rate than the general one in the U.S. – the accident raises questions about automated cars. Will drivers trust their autopilot too much? Can autopilot systems in cars get smart enough to avoid these kinds of accidents? Can humans stay attentive when the steering of the car is taken over by the autopilot? Is a death caused by automation worse, i.e. less acceptable, than a death caused by a mistake of a human driver? Are we prepared to accept the risks, and if not, why are we prepared to accept the risks in the case of airplanes? Should we have self-driving cars at all?

These problems are not unique to self-driving cars. There are plans to automate many technologies in many domains of life. Developments in the areas of robotics and artificial intelligence seem to be accelerating. A lot of research money is put into these domains by governments and by big companies such as Google. There are plans for automation in the military (drones for instance) and even health care – a domain which is traditionally seen as requiring humans –sees the introduction of “care robots”. Automation is no longer confined to the factories; the robots are there. But what can be automated, and what should be automated? And are we prepared to take the risks? What are the ethical and legal consequences?

While there are increasingly intelligent machines who can do tasks previously held to be impossible – consider for instance IBM’s Watson (2) or Google’s DeepMind (3) – not everything can be automated. This is because humans have a different kind of intelligence. They are embodied, they have emotions, and they are not a machine. They are biological and cultural beings. They can be highly creative, and give meaning to their world. They are able to care – not only care for, but also care about others. They cannot and should not be reduced to an information processing thing. They are not a thing at all but experience and exist. Humans can never be entirely replaced by machines.

That being said, the days are past that automation was reserved for very simple tasks. Increasingly algorithms can take over more complex tasks and therefore also more complex jobs, or so it seems. Driving is one of them. Waiters can be replaced. It is also said that journalism and medical doctors will become replaceable. Researchers of Oxford University have predicted that in the next two decades 47% of all U.S. jobs could be automated. (4) If this would become reality, it seems that many people will have to fear for their jobs. This has also happened in the industrial past, and it could happen again in what Erik Brynjolfsson and Andrew McAfee call ‘the second machine age’. (5)

Yet even if it turns out that less jobs will be automated, and if, more likely, that many humans will remain involved in many tasks and jobs next to robots, it is important to think now about the potential psychological, ethical, and social consequences of automation. How will automation re-shape our human experience of certain activities and indeed the activity itself, such as writing or communication? Should in some domains of human practice such as health care automation be limited? Which tasks should be delegated to computers and robots, and which tasks should remain human? How can humans and machines work together in particular areas? What kind of society are we heading towards, if the current automation trend continues? Is automation good for everyone? Who will be the winners and who will be the losers? How should we politically deal with the risks and challenges of automation?

Even if there will be no robot Armageddon, even if the machines will not fully take over, it is crucial that we address these ethical and social questions now, at the stage when these technologies are still designed and tested. Otherwise we might blindly and automatically walk into a future no-one wants.