Tag: hallucination

  • KI kills search

    Pulumi, ein Hersteller von Infrastructure as Code Sachen, sagt, dass sie schlechte KI generierte Beispiele aus dem Index haben werfen lassen müssen. Weil KI Sachen halluziniert hat, die irrführend und falsch sind. Story bei The Register.