Stránka 1 z 1

Armády a umelá inteligencia

Napsal: 1/8/2025, 16:53
od pjaro77
Okrem vlastníctva zbraní a systémov ktoré využívajú umelú inteligenciu, strojové učenie a fúziu senzorov mali by mať armády vlastných odborníkov na AI ?
https://www.idnes.cz/zpravy/domaci/arma ... omaci_ivos
Chatbot s prvky umělé inteligence a strojového učení používá i armáda. Univerzita obrany se tímto systémem, který je pojmenován Adéla, inspirovala. Zároveň se ale poučí z chyb, které armádní systém dodnes má. Zájemci o studium mají získat kvalitní ucelené informace a studenti v budoucnu i další podporu. Univerzita nyní zkoumá možnosti trhu a technologií, které se stanou univerzitní „Adélou“.

https://zive.aktuality.sk/clanok/FuNgEq ... era-vojen/

Re: Armády a umelá inteligencia

Napsal: 3/9/2025, 10:25
od pjaro77
Americké ozbrojené zložky trénujú generatívne AI modely na spravodajské operácie a špionáž.
https://zive.aktuality.sk/clanok/FuNgEq ... era-vojen/
Cieľom je vytrénovať AI systémy tak, aby dokázali rýchlo analyzovať obrovské množstvo spravodajských dát od satelitných snímok až po správy zo sociálnych sietí. Doteraz ich totiž museli analytici prechádzať manuálne. Umelá inteligencia vie tieto obrovské množstvá dát triediť a interpretovať v reálnom čase, čím vojenskému veleniu poskytuje konkurenčnú výhodu oproti súperovi.
Dôstojníci využívajú generatívne nástroje napríklad na preklady a zhrnutia textov zo zahraničných médií či písanie spravodajských správ pre nadriadených. Pri sledovaní zahraničných správ spomínajúcich vojenské jednotky sa tiež vykonáva analýza sentimentu, teda vyhodnocovanie emócií a názorov v textoch.
Americká armáda využíva umelú inteligenciu od spoločnosti Vannevar Labs. V novembri minulého roka s ňou Pentagon podpísal zmluvy za viac ako 99 miliónov dolárov (takmer 87 miliónov eur). Jej generatívne modely sú trénované tak, aby dokázali sumarizovať dáta, tvoriť analýzy a navrhovať možné scenáre vývoja situácie. Cieľom je nasadiť ich široko naprieč vojenskými zložkami.
Generatívne modely sú známe tým, že si občas vymýšľajú nepresné alebo nesprávne informácie, teda takzvane „halucinujú“. Ak by takáto chyba nastala v citlivom vojenskom prostredí, následky by mohli byť katastrofálne.
Otvárajú sa tiež etické otázky zodpovednosti, teda čo sa stane, keď systém zlyhá? Ponesú zodpovednosť vojenskí velitelia, vývojári či samotná AI?