Ezernél is több pedofil képet tápláltak be egy mesterséges intelligencia adatbázisába

Nagy botrányt tört ki a német LAION körül, a vállalat gépi tanulást használó modellek fejlesztői számára biztosít olyan adatkészleteket, amelyekkel azok betaníthatják a mesterséges intelligenciás modelljeiket. A mostani esetben ezernél is több gyerekbántalmazásos kép volt az egyik legnagyobb képtárban, amelyet a cég a mesterséges intelligenciák számára szánt.

Kövesd Telegram csatornánkat

Folyamatosan frissítjük a közel-keleti háború híreivel és az orosz-ukrán konfliktus rövid híreivel is.

A legnépszerűbb adatkészlete az 5 milliárdnál is több képet tartalmazó LAION-5B, többek közt a Stable Diffusion képgenerátor készítői is ezt veszik igénybe.

A Stanford Egyetemhez tartozó Internet Observatory labor egyik kutatója a napokban komoly bombát dobott az adatkészlet kapcsán: David Thiel nyomozása szerint az internet legkülönfélébb zugaiból gépileg összegereblyézett LAION-5B képtárba pedofil tartalmak kerültek, rengeteg gyanús fotó mellett ezernél is több bizonyítottan gyermekbántalmazásos képet talált a repertoárjában.

A leleplezésre a LAION elérhetetlenné tette az érintett képtárat, állítása szerint zéró toleranciája van az illegális tartalmakkal szemben, a kitisztítását követően újból kiadja majd a LAION-5B-t.

Mindez viszont nem orvosolja a gondot, hogy a készlettel már betanított MI-k „szennyezettek”, hacsak a fejlesztőik a saját szakállukra ki nem gyomlálták az adatkészletből az illegális képeket. Az említett Stable Diffusion fejlesztői például ezt tették, a modelljük 2.0-s verziójától kezdve egyénileg tisztított készletet használnak a rendszerük betanítására.

Elképesztő! 9 hónap kellett ahhoz, hogy vádlott legyen a pedofil karateedzőből

Sátánista kísérlet Németorszégban: Egy AI avatárral helyettesítenék a valódi lelkészeket

(Origo nyomán Szent Korona Rádió)