Tag: ai

  • Cadbury 5 Star

    Cadbury 5 Star

    Ob das echte Werbung ist ist mir leider ein bisschen unklar. Es ist offenbar der echte Youtube Kanal der indischen Vertretung des Schokoladenherstellers. Trotzdem. In dem Spot wird eine Sache bedient, die in einschlägigen Kreisen schon lange und intensiv diskutiert wird. Was macht AI mit Menschen und menschlicher Arbeitskraft. Und wenn das nun wirklich echte Werbung ist, dann trägt Cadburry solche Gedanken zu einer breiteren Wahrnehmung.

    Ich habe jetzt jedenfalls Lust auf einen Cadbury 5 Star Schokoriegel, bitte.

  • Bei Amazon einkaufen lassen

    DALL·E 2024-10-11 – A futuristic robot in a modern grocery store, pushing a shopping cart filled with food items, selecting products from the shelves.

    Der ehemalige Onlinebuchhändler ist seit jeher dafür bekannt, mit den Daten seiner Kunden zu arbeiten.

    Wired schreibt nun, dass der Konzern neue, recht weit gehende Ideen im zukünftigen Umgang mit solchen Informationen hat. Dem Bericht zufolge füttert der Konzern Kundendaten AI Agenten, mit dem Ziel diese stellvertretend Kaufentscheidungen treffen zu lassen.

    Ich halte das für… schwierig.

    Amazon ist erfolgreich damit geworden, seinen Kunden etwas alltägliches zugänglich zu machen. Als das Internet neu war, hat sich kaum ein Unternehmen vorstellen können, welche Möglichkeiten die Technologie bieten würde. Soweit so gut mit den Analogien. Begonnen hat die Erfolgsgeschichte damit, dass Kunden Zugang zu Produkten, zunächst Büchern, bekommen haben, den sie sonst nicht gehabt hätten. Und das alles ohne das Haus zu verlassen. Online stöbern nach Titeln, sich inspirieren lassen. Nicht viel später kam dazu, dass es Online schon Vorschläge gab, die auch immer gut funktioniert haben. Diese Vorschläge sind durch die Auswertung von individueller wie auch kollektiver Kaufgeschichte zu Stande gekommen. Dazu Metadaten, wie lange hat man welches Produkt angesehen, aus welcher Region sucht jemand, persönliche Daten wie Alter und Geschlecht sind mittels Big Data immer leichter zu besser passenden Empfehlungen geworden. Das Einkaufen ist ein Erlebnis.

    Für die Produktmanager des Unternehmens mag Künstliche Intelligenz der konsequente nächste Schritt sein. Von der Empfehlung, die ohnehin zu 99% zu einer Kaufentscheidung führt, ist es technologisch nur noch ein kleiner Schritt, die Entscheidung auch gleich selbst zu treffen und dem ganzen ein Label “AI Assistant” zu verleihen. Frei nach Asimov muss ein Roboter dem Menschen gehorchen, und damit ist die Empfehlung, vielleicht noch das automatische Auffüllen eines Warenkorbes das beste, was an der Stelle zu erreichen ist.

    Ein Menschen wird durch Produktentscheidungen zur Vollautomation entmündigt. Ein Kunde, der nur als Kreditkarte und Geldquelle gesehen wird, wird kein besseres Shoppingerlebnis haben. Ein AI Assistent der Stellvertretend für seinen Besitzer einkauft wird wahrscheinlich das Leben nur Verändern und nicht verbessern. Niemand möchte automatisch rosafarbene Delfinvibratoren zugeschickt bekommen.

    via Wired: Amazon Dreams of AI Agents That Do the Shopping for You

  • GenAI: Too much spend – too little benefit

    Goldman Sachs looked into recent investments for GenAI. They published their findings in a report.

  • The AI Bubble is Bursting

    Adam Conover and Ed Zitron discuss how the AI bubble will end.
  • AI rant

    mataroa.blog is ranting about everything that is wrong with AI today. The article clusters into five major arguments: the believe in how LLMs will realise efficiencies, the need to remain competitive, previous successes, preparation for the future, and finally everybody else. All nicely summarised and on point.

  • Slack trains LLMs

    Slack benutzt jetzt jeden Content auf seiner Platform, um LLMs zu trainieren. Das beinhaltet DMs.

    Aber keine Sorge, es gibt doch bestimmt ein “Opt-Out”?

    Nun, nein. Es gibt die Option, das nicht an andere Kunden weiterzugeben.

    Es ist aber eine gute Gelegenheit aus “Slack” zu “Opt-Out”en.

    source.

  • NetBSD verbietet Code aus AI

    Code generated by a large language model or similar technology, such as GitHub/Microsoft’s Copilot, OpenAI’s ChatGPT, or Facebook/Meta’s Code Llama, is presumed to be tainted code, and must not be committed without prior written approval by core.

    Source: NetBSD Commit Guidelines

    Nach Gentoo hat NetBSD AI generierten Code verboten. Jedenfalls braucht es Core approval, sollte Code submitted werden, der als “tainted” eingestuft wird.

    “Tainted”, also “verdorben”, ist Code, wenn er aus Quellen stammt, die nicht eindeutig zurückzuverfolgen sind. Im Umfeld von Software spielt das eine Rolle hinsichtlich Urheberschaft und Copyright. Bei NetBSD spielt Qualität auch eine Rolle für diese Entscheidung.

  • KI-Ampel zickt

    Zwischenzeitlich in Hamm: “KI-Ampel zickt: Dauerrot treibt Autofahrer in Hamm zur Verzweiflung.” Solche Experimente gibts auch in Bayern.

    Nachzulesen hier.

  • Models All The Way Down

    Christo Buschek und Jer Thorp haben sich für ein Knowing Machines Project einmal die Funktionsweise von “Large Language Models” (LLM) zu Beschreiben vorgenommen. Man scrollt durch die Website und kann sich Schritt für Schritt anschauen, was warum passiert. Welche Daten für das Training von solchen LLMs verwendet werden, aus welchen Quellen die Inhalte stammen und wie die sich zusammensetzen. Und welche Einflüsse die Zusammensetzung bestimmen.

    Und vor allem beschreibt die Seite auch auch, was nicht automatisiert ist und wie das alles potentiell problematisch ist. Selber bin ich noch nicht ganz durch, aber die Woche hat die Mitte ja noch nicht ganz erreicht.

    Hier geht’s zu Models All The Way Down.

  • Meanwhile at Windows Copilot

    Get it the **** off my system” and “in the trash where it belongs” were common refrains as users voiced their displeasure at having Copilot forced upon them. Numerous reports emerged of people immediately disabling, hiding, or removing the AI assistant

    Teaser text from the article.

    I would‘ve embedded a screenshot of Clippy here, but Microsoft requires to use the proper product name to be used. And I‘ll rather avoid to mention that paper clip too much. But it seems I am not alone with that feeling.