AI-sökning skickar användare till 404-sidor nästan 3 gånger fler än Google
AI-sökmotorer skickar användare till 404 sidor fler än Google. En studie av 16 miljoner webbadresser hittar ChatGPT-leads i hallucinerande länkar.
Ny forskning som undersöker 16 miljoner webbadresser stämmer överens med Googles förutsägelser att hallucinerade länkar kommer att bli ett problem på alla AI-plattformar och kan påverka AI SEO.
En Ahrefs-studie visar att AI-assistenter skickar användare till trasiga webbsidor nästan tre gånger oftare än Googles sökning.
Uppgifterna kommer sex månader efter att Googles John Mueller ökade medvetenheten om problemet.
ChatGPT leder till URL-hallucinationer
ChatGPT skapar flest falska webbadresser bland alla testade AI-assistenter. Studien fann att 1 % av webbadresserna som folk klickade på ledde till 404 sidor. Googles andel är bara 0,15 %.
Problemet förvärras när man tittar på alla webbadresser som ChatGPT nämner, inte bara de som man klickat på. Här leder 2,38 % till felsidor. Jämför detta med Googles toppsökresultat, där endast 0,84 % är trasiga länkar.
Claude kom på andra plats med 0,58 % trasiga länkar för klickade webbadresser. Copilot hade 0,34 %, Perplexity 0,31 % och Gemini 0,21 %. Mistral hade den bästa andelen med 0,12 %, men den skickar också minst trafik till webbplatser.
Varför händer detta?
Forskningen fann två huvudsakliga orsaker till varför AI skapar falska länkar.
För det första fanns vissa webbadresser tidigare, men de gör det inte längre. När AI förlitar sig på gammal information istället för att söka på webben i realtid kan den föreslå sidor som har tagits bort eller flyttats.
För det andra uppfinner AI ibland webbadresser som låter korrekta men aldrig existerade.
Ryan Law från Ahrefs delade exempel från sin egen webbplats. AI-assistenter skapade falska webbadresser som ”/blog/internal-links/” och ”/blog/newsletter/” eftersom dessa låter som sidor som Ahrefs kan ha. Men de existerar faktiskt inte.
Begränsad påverkan på den totala trafiken
Problemet kan verka betydande, men de flesta webbplatser kommer inte att märka någon större påverkan. AI-assistenter genererar bara cirka 0,25 % av webbplatstrafiken. Google, som jämförelse, driver 39,35 % av trafiken.
Detta innebär att falska webbadresser påverkar en liten del av en redan liten trafikkälla. Problemet kan dock växa i takt med att fler använder AI för forskning och information.
Studien fann också att 74 % av nya webbsidor innehåller AI-genererat innehåll. När detta innehåll innehåller falska länkar kan webcrawlers indexera dem, vilket sprider problemet ytterligare.
Muellers förutsägelse visar sig vara korrekt
Dessa resultat stämmer överens med vad Googles John Mueller förutspådde i mars. Han förutspådde en ”liten ökning av antalet klickade på dessa hallucinerade länkar” under de kommande 6–12 månaderna.
Mueller föreslog att man skulle fokusera på bättre 404-sidor snarare än att jaga oavsiktlig trafik.
Hans råd att samla in data innan man gör stora förändringar ser smart ut nu, med tanke på den lilla trafikpåverkan som Ahrefs fann.
Mueller förutspådde också att problemet skulle avta i takt med att AI-tjänster förbättrar hur de hanterar URL:er. Tiden får utvisa om han har rätt i detta också.
Vad man bör göra
För tillfället bör de flesta webbplatser fokusera på två saker. Skapa användbara 404-sidor för användare som klickar på trasiga länkar. Konfigurera sedan omdirigeringar endast för falska webbadresser som får meningsfull trafik.
Detta gör att du kan hantera problemet utan att överreagera på det som fortfarande är ett mindre problem för de flesta webbplatser.