In un articolo pubblicato su MIT Technology Review viene preso in esame il famoso walled garden ovvero l’approccio alla sicurezza utilizzato da Apple sul suo intero ecosistema.
Cos’è un walled garden
L’espressione walled garden viene utilizzata nell’informatica, nel mondo delle tecnologie dell’informazione e nell’IT in generale per riferirsi a quelle piattaforme costruite per obbligare sviluppatori, applicazioni, servizi e utenti a restare sempre all’interno di un perimetro recintato all’interno del quale vengono messi a disposizione tutti gli strumenti per sostenere l’intero ecosistema.
Al di là del muro c’è un ambiente potenzialmente pericoloso mentre nel recinto tutto funziona bene, non ci sono rischi e le varie figure possono muoversi in libertà.
Un walled garden aiuta moltissimo dal punto di vista della sicurezza perché, ad esempio, nel caso di Apple è l’azienda di Cupertino a stabilire che cosa ammettere all’interno del perimetro lasciando tutti “i cattivi” oltre il muro.
Attenzione ai malware che possono comunque entrare all’interno del walled garden divenendo così impossibili da riconoscere
Come spiegano gli esperti di Citizen Lab l’1% dei criminali informatici è comunque capace di trovare una via per fare breccia nel walled garden di Apple. Una volta dentro con il loro codice malevolo il malware diventa di fatto pressoché impossibile da riconoscere perché può beneficiare del livello di protezione offerto da Apple.
Bill Marczak (Citizen Lab) ha impiegato gli ultimi otto anni a studiare il comportamento degli aggressori più abili il cui obiettivo è proprio quello di prendere di mira il walled garden Apple.
E come visto in diverse situazioni nel recente passato, non è affatto impossibile sviluppare codici exploit “zero-click” che consentano di applicare modifiche anche sulle parti del sistema operativo normalmente escluse alle app senza destare sospetti.
Una volta spintisi così in profondità gli aggressori possono trarre vantaggio dall’approccio al problema della sicurezza utilizzato da Apple tanto che esso diventa una barriera che impedisce di investigare e individuare il comportamento dannoso.
Marczak cita anche un caso emblematico: la scorsa estate, nel bel mezzo di un’indagine da lui svolta insieme con altri ricercatori, Apple ha rilasciato una nuova versione di iOS.
Tale versione ha letteralmente ucciso uno strumento per il jailbreaking degli iPhone che Citizen Lab usava per aprire gli smartphone e studiarne eventuali comportamenti anomali. L’aggiornamento di iOS ha bloccato l’accesso da parte di tale strumento alle aree “riservate” del telefono, compresa una cartella utilizzata per la gestione dei nuovi aggiornamenti, rivelatasi la posizione esatta dove i criminali informatici stavano nascondendo il loro codice nocivo. “Di fronte a questi comportamenti non possiamo fare altro che alzare le mani“, ha dichiarato Marczak.
La storia di iVerify, unica app approvata da Apple per controllare la sicurezza degli iPhone
iVerify è un’app per la sicurezza dei dispositivi Apple che l’azienda guidata da Tim Cook ha deciso di approvare. Essa consente infatti di capire se lo smartphone abbia subìto un’aggressione oppure se sia in qualche modo monitorato.
L’app, sviluppata da Trail of Bits, è balzata agli onori delle cronache perché difficilmente Apple accende il semaforo verde per questo tipo di applicazioni. iVerify, giocando secondo le regole stabilite a Cupertino, è quindi regolarmente pubblicata sull’App Store.
Un’app come iVerify si limita a controllare che le configurazioni di base dell’iPhone corrispondano a quelle attese: se qualcosa non appare come ci si aspetta, è verosimile che ci sia un problema.
L’app non può tuttavia agire direttamente su eventuali componenti malware che ovviamente infrangono le regole fissate da Apple e non gli è permessa la lettura della memoria dell’iPhone.
Ryan Stortz, ingegnere di Trail of Bits, ammette che il sistema messo a punto da Apple possa in alcuni casi ritorcersi contro ma nel complesso aiuta a difendersi dai malware e dalle attività di spionaggio.
Apple potrebbe teoricamente concedere diritti limitati ai ricercatori in modo che abbiano a disposizione gli strumenti per scoprire nuove problematiche di sicurezza. Il problema è però lo stesso di cui Apple ha parlato nel famoso caso di San Bernardino: se viene creata un’eccezione per i ricercatori alla fine potrebbe essere sfruttata dai criminali informatici.
Per adesso la Mela ha annunciato la disponibilità di speciali immagini di iOS utilizzabili a fini di studio e ricerca ma si è sempre strenuamente battuta per impedire l’utilizzo di strumenti non ufficiali: iOS può essere virtualizzato: Apple perde la causa per violazione di copyright.