Court Case over AI Hallucinations: The U.S. Protects Developers, Not Users

A U.S. court has dismissed a lawsuit against OpenAI in which a radio host claimed that ChatGPT falsely stated he had embezzled money. The reason? OpenAI’s terms of service clearly warn that AI outputs may contain errors and should be treated with caution.

The ruling implies that if an AI provider warns users about possible hallucinations, it is not liable for damages caused by false or misleading outputs. However, the situation in Europe may soon differ — the upcoming AI Act introduces stricter rules and greater accountability for AI operators.

Přehled ochrany osobních údajů

Tyto webové stránky používají soubory cookies, abychom vám mohli poskytnout co nejlepší uživatelský zážitek. Informace o souborech cookie se ukládají ve vašem prohlížeči a plní funkce, jako je rozpoznání, když se na naše webové stránky vrátíte, a pomáhají našemu týmu pochopit, které části webových stránek považujete za nejzajímavější a nejužitečnější.