Obsah:
Předpokládá se, že falešné zprávy budou velkým trnem na straně nadcházejících prezidentských voleb, nemluvě o jeho celkově leptavém účinku na náš veřejný diskurs obecně. V dnešní propojené společnosti je rozeznávání fikce stále obtížnější, a proto se někteří vědci začínají soustředit na sílu umělé inteligence, která tento problém řeší.
Doufáme samozřejmě, že stroje nebo přesněji algoritmy budou při hledání lží lepší než lidé. Je to však realistické očekávání, nebo jen další případ házení technologie na zdánlivě nepřekonatelný problém?
Chytit zloděje. . .
Jedním ze způsobů, jak vědci plánují zaostřit Aumenův rozmach v této oblasti, je umožnit mu vytvářet falešné zprávy. Allenův institut pro AI na University of Washington vyvinul a veřejně vydal Grover, stroj na zpracování přirozeného jazyka určený k vytváření falešných příběhů o široké škále témat. I když se to může zpočátku zdát kontraproduktivní, je to ve skutečnosti docela běžná tréninková taktika AI, ve které jeden stroj analyzuje výstup druhého. Tímto způsobem lze analytickou stránku přiblížit mnohem rychleji než spoléhat se na skutečné falešné zprávy. Institut tvrdí, že Grover již může pracovat s 92% přesností, ale je důležité si uvědomit, že je pouze zběhlý při rozlišování mezi obsahem generovaným AI a obsahem generovaným člověkem, což znamená, že chytrý člověk může stále propašovat falešný příběh kolem toho. (Chcete-li se dozvědět více, podívejte se na technologie kolem bojových falešných zpráv.)