Author: Andreas

  • AI rant

    mataroa.blog is ranting about everything that is wrong with AI today. The article clusters into five major arguments: the believe in how LLMs will realise efficiencies, the need to remain competitive, previous successes, preparation for the future, and finally everybody else. All nicely summarised and on point.

  • Slack trains LLMs

    Slack benutzt jetzt jeden Content auf seiner Platform, um LLMs zu trainieren. Das beinhaltet DMs. Aber keine Sorge, es gibt doch bestimmt ein “Opt-Out”? Nun, nein. Es gibt die Option, das nicht an andere Kunden weiterzugeben. Es ist aber eine gute Gelegenheit aus “Slack” zu “Opt-Out”en. source.

  • NetBSD verbietet Code aus AI

    Code generated by a large language model or similar technology, such as GitHub/Microsoft’s Copilot, OpenAI’s ChatGPT, or Facebook/Meta’s Code Llama, is presumed to be tainted code, and must not be committed without prior written approval by core. Source: NetBSD Commit Guidelines Nach Gentoo hat NetBSD AI generierten Code verboten. Jedenfalls braucht es Core approval, sollte…

  • Tesla Cameras.

    So, also wenn man einen Tesla fährt, ist das Auto mit allerhand Kameras ausgestattet. Wegen autonomem Fahren, und Auto-Pilot, wissenschon. Diese Kameras tun halt, was Kameras so machen, sie machen Bilder, aber wegen Autopilot schauen sich das Tesla Angestellte halt an. Die machen dann das gleiche wie alle anderen im Internet, sie teilen diese Bilder,…

  • Huge Spam Wave

    Everything will be better in the cloud, they said. AT&T delays Microsoft 365 email delivery due to spam wave

  • Rechtsextremismus stoppen

  • data breach in media culture.

    May the fourth be with you. Bisschen spät, aber den wollte ich mir für Montag aufheben. via pseudo nym.

  • Thunderbird Exchange Support

    Thunderbird macht ein paar “Adventures in Rust”, an deren Ende Support für das Microsoft Exchange Protokoll stehen wird. Ich denke, das ist wichtig.

  • KI kills search

    Pulumi, ein Hersteller von Infrastructure as Code Sachen, sagt, dass sie schlechte KI generierte Beispiele aus dem Index haben werfen lassen müssen. Weil KI Sachen halluziniert hat, die irrführend und falsch sind. Story bei The Register.

  • Datenschützer reichen Beschwerde gegen OpenAI ein

    Tagesschau vom Montag 29.04.2024 10:38 Uhr Das KI-Programm ChatGPT veröffentlicht Daten über Privatpersonen, deren Herkunft unklar sei. Das werfen Datenschützer dem Anbieter OpenAI vor. Zudem ließen sich falsche Angaben nicht korrigieren. https://www.tagesschau.de/wirtschaft/verbraucher/openai-chatgpt-datenschutz-beschwerde-100.html Künstliche Intelligenz muss mit großen Mengen an Daten trainiert werden, deren Herkunft und Inhalt nicht immer klar ist. Die Technologie aber auch die…