Full description not available
E**N
Maschinenlernen und Humanität
Zugegebenermaßen bin ich alles andere als ein Fachmann auf den Gebieten von Künstlicher Intelligenz (KI) und Machine Learning (ML). Doch gerade deshalb war ich dankbar für dieses Buch, das sich dezidiert (auch) an Nicht-Experten wendet und deshalb auch weitestgehend auf Fachterminologien und (mathematisch) formalisierte Darstellungen verzichtet.Leute, die weit besser als ich in diesen Thematiken und Forschungsfeldern bewandert sind, haben mir bestätigt, dass der Autor dieses Buches, Brian Christian, über einen großen Sachverstand verfüge und dass die Zugänglichkeit seiner Darstellungen nicht auf Kosten der sachlichen Korrektheit ginge. Alles in allem also wohl eines jener profunden Sachbücher, für die man den englischsprachigen Kulturraum immer noch beneiden kann.Das im Titel angesprochene Ausrichtungs- oder Orientierungsproblem eräutert bereits der Untertitel weitgehend: Es geht darum, inwieweit auf ML-basierte KI-Systeme im Einklang mit menschlichen Werten stehen bzw. in Widerspruch zu ihnen geraten können oder es bereits getan haben. Konkrete Probleme reichen von Bilderkennungs- bzw. –klassifikationssystemen mit ›gender bias‹ oder ›racial bias‹ bis hin zum Einsatz von KI-basierten Systemen zur Bestimmung der Rückfallwahrscheinlichkeit von Straftätern, über deren Bewährung entschieden werden soll. Das Buch enthält zahlreiche weitere Beispiele des Einsatzes von ML in unterschiedlichen gesellschaftlichen Bereichen.Christian nimmt eine mittlere Position ein zwischen einer pessimistischen Technikdystopie und einer optimistischen KI-Euphorie. Akribisch werden die konkreten Probleme benannt und auf ihre Ursachen hin untersucht. Vieles gebe, so Christian, Anlass zur Skepsis und zur Sorge, doch gleichzeitig betont er die grundsätzliche technische Beherrschbarkeit der Probleme. Um Letzteres zu demonstrieren, taucht er tief in die aktuelle Forschungslandschaft ein und zeichnet erstaunliche Entwicklungslinien nach, die bisweilen wissenschaftshistorisch recht weit ausgreifen. Erstaunlich ist unter anderem, wie sich unterschiedliche Disziplinen (wechselseitig) beeinflussen und um welche Disziplinen es sich dabei handelt. Dass sich Informatiker und Ingenieure, die mit der ML-Entwicklung befasst sind, intensiv für die Ergebnisse von Primatenforschung, Entwicklungspsychologie oder Erziehungswissenschaft interessieren könnten, hätte man vor wenigen Jahrzehnten wohl nicht prognostiziert.Ich habe das Buch mit sehr großem Gewinn gelesen. Was man monieren kann, ist zum einen Christians Hang, manchmal in die journalistische Trickkiste zu greifen, um Erzählungen ›spannend‹ zu gestalten. Doch das scheint mir verzeihlich, weil es nicht auf Kosten des Wahrheitsgehalts geht. Problematischer erscheint mir, dass der Autor allzu sehr ausblendet, dass ein erheblicher Teil der KI- bzw. ML-Forschung in den Institutionen der großen Tech-Konzerne stattfindet und man sich durchaus fragen sollte, inwieweit dieses Faktum – KI/ML-Forschung am Tropf von Konzernen mit Profitmaximierungsinteressen – ein ganz eigenes ›alignment problem‹ mit sich bringt.
D**N
Smart, Informed, and Really Well-Written
One of the best books around on AI alignment, especially for the non-technical expert. But Christian did such thorough research and explains things so authoritatively and clearly and brings in the voice of the experts from whom he learned that even experts will enjoy and benefit from this review of the field. Learned a lot. I may well assign it as a reading my teaching and I only do that for books that I think students will really get a lot out of.
G**A
Good introductory text to the issues
Trying to understand alignment of human values and machine learningIt’s a great eye opener and easy to understand - covers a lot of ground
K**B
The sorcerer's apprentices rummaging through Pandora's box
I am a voracious reader, or should I say, listener because nowadays, I first listen to books which may be of interest. More often than not I find that popular business and even science books are large in volume but thin in content.The big exception is Brian Christian’s book “The Alignment Problem”, 1st Edition (October 6, 2020). Briefly, Christian defines the alignment problem as arising from our imprecise or incomplete instructions to artificial intelligence which may result in a potentially catastrophic divergence from what we really want and what AI actually does. Alignment ensures that models capture our norms and values so that they implement what we mean, intend and want.Christian’s narrative, always compelling and interesting, opens up new insights on every page even if you are generally familiar with the field. The book extends over 334 pages and is then followed by an 117 page notes and bibliography section. In other words, this huge accomplishment of a book is of value to the academic researcher in AI, ethicists and legal scholars, the advanced analytics practitioner and their managers, and an interested lay audience. It should be noted that the book is also of particular interest to physicians who are currently developing or using AI algorithms for diagnosis or patient management.Artificial intelligence is currently on the top of its own hype cycle again. In contrast to previous decades we now see an avalanche of real world applications covering up the potential for failure: obvious, patent, and potentially fixable, on one hand, and latent, hidden or lurking, waiting to trigger catastrophe, on the other hand. Raising awareness now will help avoid serious mistakes.
M**N
Grateful to have Brian Christian in our corner
I've been a huge fan of Brian Christian's writing since... well, since before "The Most Human Human," but that's where he truly proved himself. Reading Brian's work is like going to a cocktail party that you weren't totally sure you wanted to go to, then finding yourself having spent the last three hours spellbound by the bald man in the corner, reducing incredibly complex ideas to meaningful and entertaining analogies that, by the end of the night, have completely transformed your worldview. Truth be told, I'm a little nervous to dive deeper into the issues lurking in the future of AI at this point. But if there's anyone I trust to enlighten me on high stakes issues without crushing my soul (or my brain), it's Brian Christian.
Trustpilot
2 months ago
2 weeks ago