Nem elegendő csupán nyílt forrásúvá tenni a mesterséges intelligenciát ahhoz, hogy valóban kiemelkedő és hatékony legyen.


Az MI-iparban is működik az úgynevezett open washing, ami már ismerős lehet a nyílt forrású szoftverekkel kapcsolatos korábbi gyakorlatokból.

Az átláthatóság és a szoftverbiztonság tanulságainak alkalmazása egyre nagyobb szerepet játszik az MI-rendszerek világában, ami fokozott vitákat generál a nyitottság valódi értelmével kapcsolatban a mesterséges intelligencia fejlesztésén belül is. Az AI News hétfői hírei alapján a meghatározások jelenleg meglehetősen homályosak, hiszen a modellek sokféle összetevőből állnak: a képzéshez használt adatkészletek, a súlyok, valamint a tanulási és tesztelési folyamatok során alkalmazott programok és egyéb tényezők teljes spektrumának nyílt forrásúnak kellene lennie ahhoz, hogy a modellek is nyitottnak tekinthetők legyenek. Azonban a piacon szereplő jelentős szereplők között még mindig nincs konszenzus ezeknek az értelmezéseknek a kapcsán.

A cikkben az Endor Labs nyílt forrású biztonsági szolgáltató egyik vezetője felhívja a figyelmet az úgynevezett open washing (kb. nyílttá mázolás) veszélyére. Ez hasonlóan működik például a green washing (zöldre festés) jelenséghez, melynek során marketing- és PR-eszközökkel olyan képet igyekeznek kialakítani a vállalatokról, mintha azok a valóságosnál sokkal többet tennének a környezet védelméért. Maga az open washing a nyílt forrású szoftvereknél is működik, ahol az iparági szereplők átláthatóságról beszélnek, miközben lényeges korlátozásokat alkalmaznak: gondoljunk mondjuk a felhőszolgáltatóknál a nyílt forrású megoldások hozzájárulás nélkül kínált, fizetős verzióira.

A biztonság megteremtéséhez elengedhetetlen a világos és átlátható kommunikáció.

Az AI News legfrissebb jelentése szerint a mesterséges intelligenciával foglalkozó nyílt LLM-szolgáltatók is hasonló utat követnek, mint sok más iparágban: a nyílt forráskódok mellett különféle kereskedelmi korlátozásokat alkalmaznak, hogy megőrizzék versenyelőnyüket. Ezzel szemben a kínai DeepSeek, amely az MI-piacon feltörekvő, de vitathatatlanul izgalmas szereplőnek számít, példaként állítható. A DeepSeek például nagyobb átláthatóságot és nyilvános ütemtervet kínál hosztolt szolgáltatásaihoz, lehetővé téve, hogy a felhasználók betekintést nyerjenek a modellek finomhangolásába és üzemeltetésébe. Ez a megközelítés nemcsak a saját megoldásaik biztonságát növeli, hanem mások számára is megkönnyíti a rendszerek biztonsági kockázatainak elemzését és a DeepSeek saját verziójának éles üzemeltetését.

A szakértő úgy látja, hogy a DeepSeek átláthatósági kezdeményezései igazodnak a nyílt forrású MI irányába mutató tágabb trendhez. Az IDC adatai alapján a szervezetek 60 százaléka már az ilyen modelleket választja a kereskedelmi alternatívák helyett a generatív MI-projektekhez, az Endor Labs pedig azt tapasztalja, hogy a szervezetek alkalmazásonként átlagosan 7-21 nyílt forrású modellt is felhasználnak. Utóbbiak elterjedése ugyanakkor még szükségessebbé teszi a függőségek értékelését is, ami nemcsak törvényességi megfelelést jelent, hanem (a nyílt forráskódú könyvtárakhoz hasonlóan) a működési kockázatok és az ellátási lánc biztonsági kockázatainak feltárását is egészen a képzési adatoktól kezdve.

Related posts