Apple, mezi jinými velkými technologickými společnostmi, souhlasil s dobrovolnou a bezzubou iniciativou, která požaduje férovost při vývoji modelů umělé inteligence a sledování potenciálních problémů s bezpečností nebo soukromím, jak vývoj pokračuje.
V oznámení v pátek ráno Bílý dům jasně řekl, že Apple souhlasil s dodržováním souboru dobrovolných záruk umělé inteligence, které vytvořila Bidenova administrativa. K tomuto úsilí se již přihlásily další velké technologické firmy, včetně Alphabet, Amazon, Meta, Microsoft a OpenAI.
Jak jsou v současné době, směrnice nejsou tvrdé linie v písku proti chování. Výkonný příkaz, se kterým Apple v zásadě souhlasil, má šest klíčových zásad.
- Požadujte, aby vývojáři nejvýkonnějších systémů umělé inteligence sdíleli své výsledky bezpečnostních testů a další důležité informace s vládou USA
- Vyvíjejte standardy, nástroje a testy, které pomohou zajistit, že systémy umělé inteligence jsou bezpečné, zabezpečené a důvěryhodné
- Chraňte se před riziky používání umělé inteligence ke konstrukci nebezpečných biologických materiálů
- Chraňte Američany před podvody a podvody s umělou inteligencí zavedením standardů a osvědčených postupů pro odhalování obsahu generovaného umělou inteligencí a ověřování oficiálního obsahu
- Vytvořte pokročilý program kybernetické bezpečnosti pro vývoj nástrojů umělé inteligence k nalezení a opravě zranitelností v kritickém softwaru
- Objednejte vypracování memoranda o národní bezpečnosti, které řídí další akce v oblasti umělé inteligence a bezpečnosti
Podle exekutivního nařízení jsou společnosti požádány, aby sdílely výsledky testování shody mezi sebou navzájem a s federální vládou. V nařízení je také požadováno dobrovolné hodnocení bezpečnostních rizik, o jehož výsledky se rovněž žádá, aby byly široce sdíleny.
Dosud neexistují žádné sankce za nedodržení ani neexistuje žádný druh vynucovacího rámce. Aby byly způsobilé pro federální nákup, musí být systémy umělé inteligence otestovány před odesláním jakékoli žádosti o nabídku.
Dodržování podmínek příkazu se nesleduje a není jasné, zda budou použity nějaké skutečné, právně vymahatelné mantinely. Není také jasné, co by se mohlo stát s dohodou v rámci budoucí správy.
Na regulaci vývoje umělé inteligence se vyvíjely snahy obou stran, ale po úvodních slovních projevech došlo k malému pohybu nebo diskusím. Obnovení této debaty se neočekává v dohledné době a rozhodně ne před volbami v listopadu 2024.
Říjnový výkonný příkaz, který předcházel závazku společnosti Apple, byl sám vydán před nadnárodním úsilím v listopadu 2023 o vytvoření bezpečných rámců pro vývoj AI. Zatím není jasné, jak k sobě tyto dvě snahy zapadají a zda vůbec.
Očekává se, že Bílý dům o této záležitosti uspořádá další brífink 26. července.
Zdroj: appleinsider.com