Ob das echte Werbung ist ist mir leider ein bisschen unklar. Es ist offenbar der echte Youtube Kanal der indischen Vertretung des Schokoladenherstellers. Trotzdem. In dem Spot wird eine Sache bedient, die in einschlägigen Kreisen schon lange und intensiv diskutiert wird. Was macht AI mit Menschen und menschlicher Arbeitskraft. Und wenn das nun wirklich echte Werbung ist, dann trägt Cadburry solche Gedanken zu einer breiteren Wahrnehmung.
Ich habe jetzt jedenfalls Lust auf einen Cadbury 5 Star Schokoriegel, bitte.
Der ehemalige Onlinebuchhändler ist seit jeher dafür bekannt, mit den Daten seiner Kunden zu arbeiten.
Wired schreibt nun, dass der Konzern neue, recht weit gehende Ideen im zukünftigen Umgang mit solchen Informationen hat. Dem Bericht zufolge füttert der Konzern Kundendaten AI Agenten, mit dem Ziel diese stellvertretend Kaufentscheidungen treffen zu lassen.
Ich halte das für… schwierig.
Amazon ist erfolgreich damit geworden, seinen Kunden etwas alltägliches zugänglich zu machen. Als das Internet neu war, hat sich kaum ein Unternehmen vorstellen können, welche Möglichkeiten die Technologie bieten würde. Soweit so gut mit den Analogien. Begonnen hat die Erfolgsgeschichte damit, dass Kunden Zugang zu Produkten, zunächst Büchern, bekommen haben, den sie sonst nicht gehabt hätten. Und das alles ohne das Haus zu verlassen. Online stöbern nach Titeln, sich inspirieren lassen. Nicht viel später kam dazu, dass es Online schon Vorschläge gab, die auch immer gut funktioniert haben. Diese Vorschläge sind durch die Auswertung von individueller wie auch kollektiver Kaufgeschichte zu Stande gekommen. Dazu Metadaten, wie lange hat man welches Produkt angesehen, aus welcher Region sucht jemand, persönliche Daten wie Alter und Geschlecht sind mittels Big Data immer leichter zu besser passenden Empfehlungen geworden. Das Einkaufen ist ein Erlebnis.
Für die Produktmanager des Unternehmens mag Künstliche Intelligenz der konsequente nächste Schritt sein. Von der Empfehlung, die ohnehin zu 99% zu einer Kaufentscheidung führt, ist es technologisch nur noch ein kleiner Schritt, die Entscheidung auch gleich selbst zu treffen und dem ganzen ein Label “AI Assistant” zu verleihen. Frei nach Asimov muss ein Roboter dem Menschen gehorchen, und damit ist die Empfehlung, vielleicht noch das automatische Auffüllen eines Warenkorbes das beste, was an der Stelle zu erreichen ist.
Ein Menschen wird durch Produktentscheidungen zur Vollautomation entmündigt. Ein Kunde, der nur als Kreditkarte und Geldquelle gesehen wird, wird kein besseres Shoppingerlebnis haben. Ein AI Assistent der Stellvertretend für seinen Besitzer einkauft wird wahrscheinlich das Leben nur Verändern und nicht verbessern. Niemand möchte automatisch rosafarbene Delfinvibratoren zugeschickt bekommen.
mataroa.blog is ranting about everything that is wrong with AI today. The article clusters into five major arguments: the believe in how LLMs will realise efficiencies, the need to remain competitive, previous successes, preparation for the future, and finally everybody else. All nicely summarised and on point.
Code generated by a large language model or similar technology, such as GitHub/Microsoft’s Copilot, OpenAI’s ChatGPT, or Facebook/Meta’s Code Llama, is presumed to be tainted code, and must not be committed without prior written approval by core.
Nach Gentoo hat NetBSD AI generierten Code verboten. Jedenfalls braucht es Core approval, sollte Code submitted werden, der als “tainted” eingestuft wird.
“Tainted”, also “verdorben”, ist Code, wenn er aus Quellen stammt, die nicht eindeutig zurückzuverfolgen sind. Im Umfeld von Software spielt das eine Rolle hinsichtlich Urheberschaft und Copyright. Bei NetBSD spielt Qualität auch eine Rolle für diese Entscheidung.
Christo Buschek und Jer Thorp haben sich für ein Knowing Machines Project einmal die Funktionsweise von “Large Language Models” (LLM) zu Beschreiben vorgenommen. Man scrollt durch die Website und kann sich Schritt für Schritt anschauen, was warum passiert. Welche Daten für das Training von solchen LLMs verwendet werden, aus welchen Quellen die Inhalte stammen und wie die sich zusammensetzen. Und welche Einflüsse die Zusammensetzung bestimmen.
Und vor allem beschreibt die Seite auch auch, was nicht automatisiert ist und wie das alles potentiell problematisch ist. Selber bin ich noch nicht ganz durch, aber die Woche hat die Mitte ja noch nicht ganz erreicht.
Get it the **** off my system” and “in the trash where it belongs” were common refrains as users voiced their displeasure at having Copilot forced upon them. Numerous reports emerged of people immediately disabling, hiding, or removing the AI assistant
Teaser text from the article.
I would‘ve embedded a screenshot of Clippy here, but Microsoft requires to use the proper product name to be used. And I‘ll rather avoid to mention that paper clip too much. But it seems I am not alone with that feeling.