Instagram etichetterà le immagini fatte con AI? | Weekly AI #66

Instagram etichetterà le immagini fatte con AI? | Weekly AI #66

instagram foto ai

Weekly AI news è la rassegna stampa settimanale curata dai nostri editor sui temi più rilevanti legati all’AI. Sanità, legal, trasporti, innovazione, moda, ambiente: ogni settimana, una raccolta delle novità che stanno cambiando il mondo.

Robot autonomi sotto l’oceano

Uno sciame di piccoli robot che navighino insieme nell’oceano più oscuro e profondo?

È la visione di un team di ricerca capitanato dalla Brown University. Il progetto si chiama Pleobot e consiste in una rete di robot autonomi e interconnessi in grado di spostarsi insieme nell’oscurità dell’oceano imitando movimenti e comportamenti di un crostaceo chiamato krill.

È un progetto che promette di fare da capofila a una nuova generazione di robot marini che possano mappare gli oceani sul nostro pianeta… e su altri.

Bank Of America: la bolla AI non scoppierà

La bolla finanziaria dell’AI non scoppierà, almeno per ora: parola della Bank of America, che solo poche settimane fa aveva lanciato l’allarme opposto. Il dietrofront proviene direttamente dagli strategisti della banca multinazionale statunitense, guidati da Michael Hartnett.

Il chief investment era fino a poco fa tra i più critici sull’andamento finanziario dell’AI, oggetto di una crescita fin troppo repentina. Seppur la prospettiva di una crisi paia scongiurata il panorama, per ora, resta incerto.

Le aziende in primo piano, come Nvidia, Microsoft, Redmond o il gruppo Meta, rimangono al centro di un andamento finanziario in crescita; non sempre però possono vantare lo stesso risultato in termini di bilanci aziendali.

Addestratori di AI: le storture di un settore frammentato

Nonostante lo sviluppo delle intelligenze artificiali nelle sue innumerevoli varianti sia raccontato da tutti i media e osservato dall’opinione pubblica mondiale, ancora relativamente poco si parla di figure fondamentali per questo settore: gli addestratori di AI. Poco se ne parla anche perché poco si sa. Quello degli addestratori, oggi, è un settore molto disomogeneo.

Testate come Bloomberg, The Atlantic o il Time hanno dedicato spazio a questo mondo negli ultimi mesi raccontando la frammentazione della forza lavoro che lo compone. Ne esce un quadro a tratti preoccupante: i nuovi tool progettati dalle grandi aziende tech come OpenAI o Google sono resi possibili grazie ad un lavoro ombra dislocato in tutto il mondo. Capire il fenomeno nella sua interezza è difficile perché è un settore accerchiato da una cappa di riservatezza quasi impenetrabile.

https://ainews.it/addestratori-di-ai-le-storture-di-un-settore-disomogeneo/

Le prime critiche al Frontier Model Forum

Tra le prime voci critiche all’annuncio della nascita del Frontier Model Forum la più vistosa è quella della professoressa Emily Bender, esperta di linguistica computazionale ed elaborazione del linguaggio all’università di Washington: le sue dichiarazioni al Financial Times, basate sul timore che le aziende mirino ad una graduale auto-regolamentazione, hanno fatto il giro del mondo.

In effetti l’organo creato da Anthropic, Google, Microsoft e OpenAI nasce in un periodo decisivo per il mercato AI: tutte le istituzioni del mondo, si pensi all’Unione Europea o all’ONU, sono immerse nelle discussioni per le regolamentazioni condivise. E le aziende AI temono più di tutto possibili limitazioni imposte dalle nuove regole che possano impedire il loro sviluppo.

L’FBI è sempre più preoccupata per i rischi dell’AI

Il direttore dell’FBI Christopher Wray e il capo della divisione cyber Bryan Vorndran hanno parlato dei rischi dell’AI durante la puntata del 28 luglio del podcast ‘Inside the FBI’, un progetto della stessa FBI.

L’utilizzo che i cybercriminali possono fare dell’intelligenza artificiale per incrementare azioni malevoli di ogni genere è attenzionato ai massimi livelli da tutte le organizzazioni che si occupano di sicurezza.

I già classici rischi di attacchi phishing e diffusioni di malware sono resi ancora più imprevedibili da una serie di pratiche in espansione, come il GAN, l’AML, i derivati del deepfake e più in generale l’uso di un’AI generativa messa al servizio di azioni criminali.

E in questo scenario di tensioni per la cybersicurezza, l’FBI lancia accuse alla Cina.


Seguici anche sui social!


Instagram etichetterà le immagini fatte con AI?

Sta facendo il giro di Internet la supposizione dello sviluppatore italiano Alessandro Paluzzi secondo cui Instagram starebbe lavorando ad un tool che possa riconoscere e segnalare agli utenti le immagini caricate sul social realizzate tramite intelligenza artificiale.

Paluzzi sarebbe riuscito ad individuare un menù dentro il codice dell’app che mostrerebbe agli utenti un avviso per avvertirli che stanno guardando un contenuto generato da AI, come una sorta di etichetta.

Il tutto con lo scopo di limitare il dilagare di fake news e la rielaborazione non autorizzata di immagini. Ancora non è chiaro tramite quali strumenti Meta potrà individuare questi contenuti con certezza.

Una startup ha raccolto 100 milioni di dollari da Samsung e Hyundai per sviluppare chip

Tenstorrent, startup che si occupa dello sviluppo di chip per l’intelligenza artificiale, è riuscita a raccogliere un finanziamento pari a 100 milioni di dollari da un collettivo di investitori capitanato da Samsung e Hyundai. 

Heung-soo Kim, vicepresidente esecutivo di Hyundai, ha commentato il finanziamento con grande soddisfazione: “Il Gruppo prevede di sviluppare una tecnologia dei semiconduttori ottimizzata ma differenziata, in grado di favorire la mobilità futura e di rafforzare le capacità interne di sviluppo della tecnologia AI”.

Google Assistant somiglierà presto ad un ChatGPT vocale?

La redazione del giornale online Axios ha dichiarato di essere entrata in possesso di un’email interna di Google, inviata dalla società ai dipendenti. Dalla mail si evincerebbe che la prossima mossa dell’azienda di Mountain View sarebbe quella di trasformare il suo assistente vocale Google Assistant in una sorta di ChatGPT (o di Bard) vocale. 

Sembra che anche Amazon abbia in cantiere di fare qualcosa di simile con Alexa.

Una Carta per regolare l’uso dell’AI nei Media

Reporters sans frontières sta elaborando una Carta per regolare l’uso dell’Intelligenza Artificiale nei media e nel giornalismo, in risposta alla crescente minaccia rappresentata dall’IA sull’integrità dell’informazione. 

La commissione che se ne occuperà sarà composta da circa venti docenti universitari e addetti ai lavori e sarà presieduta dalla giornalista Maria Ressa (Premio Nobel per la Pace nel 2021). I risultati del lavoro arriveranno entro la fine del 2023. L’obiettivo è che la Carta diventi un punto di riferimento internazionale per il mondo dei media riguardo all’IA.


In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Powered byReputation Manager

Privacy policy| Cookie policy| Cookie setting| © 2025