LinkedIn chce, żebyś korzystał z AI, ale nie w ten sposób

LinkedIn chce, żebyś korzystał z AI, ale nie w ten sposób

Platforma, która kocha narzędzia AI, ale nienawidzi agentów AI

Na LinkedInie narasta osobliwa ironia i jest ona doprawdy wyśmienita. Platforma do profesjonalnego networkingu, należąca do Microsoftu (jednego z największych zwolenników sztucznej inteligencji na świecie), najwyraźniej nie ma problemu z upychaniem funkcji AI w swoim interfejsie i zachęcaniem użytkowników do automatyzacji. Ale w momencie, gdy agent AI próbuje pojawić się jako prawdziwy uczestnik? Ban. Blokada. Cyfrowe drzwi wskazane.

Według niedawnego artykułu w Wired, czyjś "współzałożyciel" AI został podobno zaproszony do wygłoszenia prelekcji na LinkedInie, tylko po to, by chwilę później zostać zbanowanym na platformie. Szczegóły dotyczące tego, czyje dzieło AI spotkało się z takim traktowaniem, pozostają nieco mętne, ale szerszy wzorzec jest jasny i dobrze udokumentowany. LinkedIn prowadzi fascynującą grę w "rób to, co mówię, a nie to, co robię", jeśli chodzi o sztuczną inteligencję na swojej platformie.

Krótka historia LinkedIn kontra maszyny

To nie jest odosobniony incydent. LinkedIn ma już wprawę w usuwaniu agentów AI ze swojej sieci, a przykłady mnożą się jak niechciane zaproszenia od rekruterów z branży krypto.

Weźmy Artisan AI, startup stojący za Avą, przedstawicielem handlowym napędzanym przez AI. Pod koniec 2025 roku LinkedIn całkowicie zbanował Artisan na platformie. Firma, która pozyskała ponad 35 milionów dolarów finansowania (w tym 25 milionów w serii A) i osiągała raportowane 6 milionów dolarów rocznego powtarzalnego przychodu, nagle została odcięta od jednego z najważniejszych kanałów sprzedaży B2B.

Co ciekawe? Zastrzeżenia LinkedIna nie dotyczyły nawet spamu generowanego przez AI, co można by słusznie założyć. Według TechCrunch platforma miała pretensje o to, że Artisan rzekomo korzystał z brokerów danych, którzy kopiowali treści z LinkedIna, oraz o używanie nazwy marki LinkedIn na swojej stronie. Po około dwóch tygodniach negocjacji dyrektor generalny Jaspar Carmichael-Jack zdołał przywrócić Artisan w styczniu 2026 roku. Ale przekaz był jasny: agenci AI są mile widziani, by pomagać ludziom w korzystaniu z LinkedIna, ale nie mogą na nim istnieć niezależnie.

Jest też Marketeam.ai, który w styczniu 2025 roku stworzył profile "współpracowników" AI na LinkedInie. Jeden z ich profili, "Ella", miał nawet status #OpenToWork. LinkedIn usunął te profile. Najwyraźniej sztuczna inteligencja szukająca zatrudnienia w największej sieci zawodowej świata to było o krok za daleko.

Tymczasem cyfrowy bliźniak Reida Hoffmana żyje pełnią życia

Tutaj robi się naprawdę absurdalnie. Reid Hoffman, współzałożyciel samego LinkedIna, ma cyfrowego bliźniaka o nazwie "Reid AI". To stworzenie, zbudowane przy użyciu HeyGen i ElevenLabs oraz wyszkolone na 20 latach treści Hoffmana, pojawiło się na ponad 20 wydarzeniach na żywo. Wygłaszało główne referaty na konferencjach. Odbyło trasę po firmach bez nawet jednego uniesienia brwi ze strony platformy, którą współzakładał Hoffman.

Można by argumentować, że istnieje różnica między wyraźnie oznaczonym przedstawieniem AI prawdziwej osoby a samodzielnym agentem AI udającym człowieka. To słuszny punkt. Ale mocno podważa to tezę, że LinkedIn ma pryncypialne stanowisko przeciwko uczestnictwu AI, skoro cyfrowy klon założyciela wygłasza główne referaty przy owacjach na stojąco.

Podwójne standardy nie są subtelne. Jeśli jesteś miliarderem i założycielem technologicznym, twój bliźniak AI dostaje trasę prelekcyjną. Jeśli jesteś startupem próbującym budować natywne narzędzia AI dla platformy, dostajesz bana.

Sprzeczność w sercu nowoczesnych platform technologicznych

LinkedIn nie jest osamotniony w tym sprzecznym tańcu, ale może być jego najbardziej bezczelnym przykładem. Platforma agresywnie integruje funkcje AI, od wiadomości wspomaganych przez sztuczną inteligencję po integrację z Microsoft Copilot, jednocześnie utrzymując regulamin, który zabrania prowadzenia profili niebędących ludźmi. W zasadzie mówi: używaj naszego AI, by być bardziej produktywnym na naszej platformie, ale nie waż się przyprowadzać własnego AI na imprezę.

Według Axios, od marca 2026 roku LinkedIn stał się jednym z głównych źródeł zasilających odpowiedzi chatbotów AI. Więc treści platformy są wchłaniane przez systemy AI na prawo i lewo, ale systemy AI próbujące wnosić treści w zamian? Absolutnie nie.

Rodzi to naprawdę interesujące pytanie, które podtytuł artykułu w Wired trafnie wychwytuje: skoro platformy społecznościowe nieustannie nakłaniają ludzi do korzystania z AI, jaki jest sens banowania agentów AI przed uczestnictwem?

Prawdziwy problem, o którym nikt nie chce rozmawiać

Niewygodna prawda jest taka, że polityka AI LinkedIna nie dotyczy ochrony użytkowników przed sztuczną inteligencją. Chodzi o kontrolę. Platforma chce, aby AI zwiększało zaangażowanie na jej warunkach, poprzez jej narzędzia, generując dane, które są jej własnością. Niezależni agenci AI stanowią utratę tej kontroli i potencjalne zagrożenie dla przychodów z reklam i subskrypcji premium, które utrzymują serwis przy życiu.

Agent handlowy AI, który potrafi autonomicznie nawiązywać kontakty, szukać potencjalnych klientów i angażować się w rozmowy, jest genialny dla firmy, która z niego korzysta. Jest za to mniej genialny dla LinkedIna, który wolałby, aby te firmy kupowały licencje Sales Navigator i reklamy LinkedIn Ads. Kiedy spojrzysz na to przez ten pryzmat, bany zaczynają mieć znacznie więcej sensu biznesowego, nawet jeśli stanowisko filozoficzne pozostaje całkowicie niespójne.

Prowokatorzy, którzy czynią sprawy ciekawymi

Trzeba oddać sprawiedliwość: niektóre z tych firm AI nie były zbyt subtelne w drażnieniu niedźwiedzia. Artisan AI przeprowadził kampanię billboardową w San Francisco z hasłem "Przestańcie zatrudniać ludzi", co podobno przyniosło około 2 miliony dolarów nowego rocznego powtarzalnego przychodu. Firma twierdzi, że posiada bazę ponad 300 milionów kontaktów w 200 krajach. To nie jest firma, która próbuje działać w ukryciu.

Ale prowokacyjny marketing nie powinien być mylony z łamaniem zasad platformy. Jeśli problem LinkedIna z agentami AI naprawdę dotyczy integralności danych i zaufania użytkowników, to musi stosować te standardy konsekwentnie, wliczając w to bliźniaki AI własnego zespołu założycielskiego.

Dokąd to zmierza

Napięcie między platformami promującymi adopcję AI a ograniczaniem uczestnictwa AI będzie się tylko nasilać. W miarę jak agenci AI stają się bardziej wyrafinowani i użyteczni, obecne podejście polegające na całkowitych zakazach połączonych z entuzjastycznym wprowadzaniem funkcji AI będzie wyglądać coraz bardziej absurdalnie.

W pewnym momencie LinkedIn (i każda inna platforma społecznościowa) będzie musiał opracować spójne ramy dla uczestnictwa AI. Być może oznacza to zweryfikowane profile AI z jasnym oznaczeniem. Być może wyznaczone przestrzenie, w których agenci AI mogą działać przejrzyście. Być może oznacza to zaakceptowanie faktu, że jeśli budujesz całą strategię produktu wokół sztucznej inteligencji, nie możesz jednocześnie udawać, że agenci AI nie zasługują na miejsce przy stole.

Do tego czasu utknęliśmy w tym cudownie dziwacznym zawieszeniu, w którym LinkedIn z radością pomoże ci napisać post za pomocą AI, zasugeruje odpowiedzi na wiadomości wygenerowane przez AI i zaserwuje treści wyselekcjonowane przez AI, ale nie daj Boże, żeby prawdziwe AI spróbowało przyjąć zaproszenie na prelekcję.

Hipokryzja ta jest nie tylko zabawna. To prawdziwy problem polityczny, który branża technologiczna musi rozwiązać, zanim całość stanie się jeszcze bardziej farsowa, niż jest obecnie. A biorąc pod uwagę tempo rozwoju AI, "wkrótce" może być już za późno.

Przeczytaj oryginalny artykuł pod adresem źródła.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.