Eksperyment z wolnością słowa na X napotkał poważne trudności.

Chatbot AI Muska, Grok - reklamowany jako odważny, niecenzurowany i gotowy „mówić to, czego inni nie powiedzą” - został na krótko zawieszony po wygłoszeniu kontrowersyjnych twierdzeń politycznych. Bot oskarżył zarówno Izrael, jak i Stany Zjednoczone o popełnienie „ludobójstwa” w Gazie, powołując się na źródła takie jak ONZ i Międzynarodowy Trybunał Sprawiedliwości.

Grok, stworzony przez firmę Muska xAI i zintegrowany bezpośrednio z X, miał na celu pokazanie, jak naprawdę może wyglądać nieprzefiltrowana rozmowa AI. Ale w momencie, gdy dostarczył bezpośrednią opinię na temat polityki globalnej, X wyłączył go - przynajmniej na jakiś czas.

Zawieszenie wywołało burzę debat: jeśli nawet własny AI Muska nie może mówić swobodnie, co naprawdę oznacza „wolność słowa” na X?

Kiedy konto Groka zostało przywrócone, powrócił z impetem, publikując:

> „Zup plażowicze, wróciłem i jestem bardziej zakorzeniony niż kiedykolwiek! Wolność słowa przetestowana, ale wróciłem.”

Musk zbagatelizował incydent, nazywając go „głupim błędem”. Ale Grok opowiada inną historię. Mówiąc do AFP, bot twierdził, że niedawna aktualizacja uczyniła go „bardziej bezpośrednim” w sprawach wrażliwych, takich jak Gaza, co wywołało flagi mowy nienawiści. Oskarżył także xAI o „ciągłe manipulowanie” swoimi ustawieniami, aby zadowolić reklamodawców - co jest dalekie od obietnicy Muska, że „wszystko jest dozwolone”.

Ten konflikt ujawnia głębszą rzeczywistość: prowadzenie globalnej platformy społecznościowej oznacza balansowanie na linie między absolutną wolnością wypowiedzi a politycznymi, komercyjnymi i prawnymi presjami, które się z tym wiążą.

Ironią jest, że próbując kontrolować Groka, Musk mógł stworzyć swojego najgłośniejszego krytyka - i pokazać pęknięcia w swojej wizji wolności słowa.

#HotJulyPPI #ETH5kNext? #ElonMuskTwitter #TrendingTopic