Il 29 marzo 2023, più di 500 esperti di tecnologia e leader aziendali hanno firmato una lettera aperta chiedendo ai laboratori di intelligenza artificiale di sospendere immediatamente tutta la formazione su qualsiasi sistema di intelligenza artificiale più potente del GPT-4 di Open AI . Questo, per almeno sei mesi.
Non è servito a nulla. I progressi nell’intelligenza artificiale non si sono fermati, né messi in pausa. Nell’ottobre 2023, quasi tutte le startup o aziende, anche lontanamente connesse alla tecnologia, hanno cercato di trovare modi per aggiungere chatbot in stile ChatGPT o generatori di immagini AI nella loro presentazione ai consumatori. Le aziende di intelligenza artificiale come OpenAI sono andate avanti con modelli nuovi e maggiori capacità mentre altre, come Meta e Amazon , hanno spostato le loro priorità per investire risorse nella corsa alla tecnologia dell’intelligenza artificiale. OpenAI, sostenuta da Microsoft , ha affermato che il suo software ChatGPT ora può “vedere, ascoltare e parlare”, conversando utilizzando la voce e rispondendo alle domande degli utenti sia con immagini che con parole. Nel frattempo, il proprietario di Facebook Meta ha annunciato che un assistente AI e diverse personalità di chatbot di celebrità saranno disponibili per miliardi di utenti di WhatsApp e Instagram con cui parlare. Forse spinte da chissà quale forma di sensibilità, aziende leader tra cui Anthropic e Google DeepMind stanno creando “costituzioni dell’IA”, un insieme di valori e principi a cui i loro modelli possono aderire, nel tentativo di prevenire gli abusi. L’obiettivo è che l’IA impari da questi principi fondamentali e si mantenga sotto controllo, senza un ampio intervento umano. Ma chi detterà le leggi di queste “costituzioni”?