Esiste un’app che ci dice se sei depresso, guardandoti in faccia: come funziona MoodCapture, sviluppata dal Dartmouth College.
MoodCapture, sviluppata dal team di ricerca del Dartmouth College, è un’app in grado di dirci se siamo depressi o meno, guardandoci semplicemente in faccia, utilizzando gli strumenti dell’intelligenza artificiale, nonché quelli alla base della tecnologia di riconoscimento facciale. Nei fatti, l’app analizza le espressioni e i contesti ambientali ripresi, in modo casuale, dalla fotocamera frontale dello smartphone, al fine di identificare i segnali precoci di questa condizione mentale. Scopriamo, dunque, come è stata sviluppata e qual è il suo reale scopo.
L’app che ti dice se sei depresso: arriva MoodCapture
MoodCapture è l’app in grado di capire se un soggetto è depresso o meno, secondo quanto afferma il gruppo di studio del Darthmouth College che si è dedicato allo sviluppo di questa particolare applicazione.
La ricerca, nello specifico, ha coinvolto 177 individui affetti da disturbo depressivo maggiore, del quale l’app ha dimostrato di riuscire a riconoscere i sintomi iniziali della depressione con una precisione del 75%.
Tale metodo – non invasivo e discreto – si pone come strumento in grado di modificare l’approccio alla salute mentale, mettendo a disposizione degli utenti un mezzo utile per monitorare il proprio stato emotivo.
Come funziona MoodCapture
L’applicazione utilizza la fotocamera del dispositivo per registrare momenti di vita quotidiani, trasformandoli in dati analizzabili che, in seguito, rivelano le dinamiche della depressione.
MoodCapture, dunque, è in grado di lavorare in modo autonomo, senza aver bisogno di interazioni attive o consapevoli da parte dell’utente: per tale ragione, dunque, che è definito come uno strumento decisamente innovativo per quel che concerne il supporto alla salute mentale mediante l’utilizzo di strumenti tecnologici.
Andrew Campbell, autore corrispondente dello studio, spiega che “MoodCapture utilizza una pipeline tecnologica simile alla tecnologia di riconoscimento facciale con deep learning e hardware di Ai“, pertanto, secondo lo studioso, l’app ha il potenziale giusto per “per ampliare questa tecnologia senza alcun input o onere aggiuntivi per l’utente“.
L’utilizzo delle immagini naturali “in-the-wild”
La ricerca, che sarà presentata alla conferenza Chi 2024 dell’Association of Computing Machinery, si è anche concentrata sull’uso di immagini naturali ‘in-the-wild‘ per prevedere, in modo affidabile, la depressione: un approccio mai tentato prima in questo ambito.
Attraverso l‘addestramento con domande standardizzate e l’analisi di migliaia di immagini, il modello predittivo di MoodCapture è stato affinato in modo da permettere all’app di riconoscere specifici indicatori visivi della depressione, tra i quali possiamo annoverare cambiamenti nell’espressione facciale e quelli legati al contesto ambientale.
Al momento, la soglia di accuratezza è del 75%, anche se gli sviluppatori puntano al 90%, in modo da monitorare meglio la depressione e permettere di intervenire in tempo, al fine di tutelare la salute mentale.