Obučavanje AI modela na rezultatima konkurentskih sistema veštačke inteligencije može biti "veoma loše" za kvalitet tog modela, jer može da dovede do "halucinacija i obmanjujućih odgovora" kakve daje DeepSeek
Nedavno lansirani kineski "otvoreni" model generativna veštačka inteligencija (AI) – DeepSeek, nadmašuje mnoge konkurentske AI modele u brojnim popularnim testovima (kao što su pisanje članaka i eseja ili programiranje), ali ima i jednu zanimljivu osobinu!
DeepSeek, naime — misli da je ChatGPT! On, takođe, navodi kom izdanju pripada, i kaže da je verzija GPT-4 objavljena 2023. godine.
Ove zanimljive tvrdnje kineske veštačke inteligencije, kao što to obično biva, brzo su se proširile društvenim mrežama, pa su joj brojni postovi posvećeni na platformama X i Reddit.
Autori DeepSeek-a nisu objavili informacije o obuci svog AI modela. U odgovoru na pitanje kako i zašto se to događa, TechCrunch navodi da su oba modela — i ChatGPT i DeepSeek V3 — statični sistemi koji uče iz milijardi primera i obrazaca kako bi mogli da predvide tekst koji će generisati. U tome idu do takvih detalja kao što je određivanje mesta za postavljanje zareza u rečenici.
Izvor: Printscreen / deepseekTakođe, na internetu postoji ogroman broj javno dostupnih tekstualnih skupova podataka koje je kreirao GPT-4 posredstvom ChatGPT-a, tako da je sasvim moguće da je te iste skupove koristio i DeepSeek, zbog čega sada bukvalno identično reprodukuje odgovore na upite.
"Očigledno je da model dobija sirove odgovore od ChatGPT-a, ali nije jasno odakle tačno oni dolaze. To bi moglo da se dešava 'slučajno'... Ali, već smo viđali slučajeve u kojima su ljudi svoje modele obučavali na podacima drugih modela, kako bi pokušali da iskoriste to znanje", objašnjava Majk Kuk, stručnjak za veštačku inteligenciju i istraživač na Kings koledžu u Londonu.
Praksa obučavanja modela na rezultatima konkurentskih sistema veštačke inteligencije može biti "veoma loša" za kvalitet tog modela, smatra on, jer može da dovede do "halucinacija i obmanjujućih odgovora", kakvi su oni koji daje DeepSeek.
"To je kao fotokopija (koja je bleđa od originala). Gubi se sve više informacija i veze sa stvarnošću", dodaje Kuk.
Izvor: ShutterstockTo takođe može biti u suprotnosti sa uslovima korišćenja ovih sistema. Pravila OpenAI-a, tvorca ChatGPT-a, zabranjuju korisnicima tog generativnog AI modela da koriste rezultate dobijene od njega za razvoj drugih modela koji mogu da budu konkurentni sistemima OpenAI-a.
Nijedna od kompanija nije odgovorila na pitanja novinara o ovom slučaju, ali je šef OpenAI-ja Sem Altman na X-u tim povodom napisao da je "relativno lako kopirati ono što znate da već funkcioniše", kao i da je "izuzetno teško uraditi nešto novo i rizično, kada ne znate kakav će biti ishod".
A da DeepSeek V3 nije ni prvi, ni jedini, AI model "sa krizom identiteta" pokazuje primer Google Gemini-ja, koji je na upit postavljen na kineskom jeziku odgovorio da je on chatbot Wenxinyiyan, kineske kompanije Baidu.
BONUS VIDEO:
Postanite deo SMARTLIFE zajednice na Viberu.