[Gfoss] Indagine dell'Agenzia del Territorio - Corriere della Sera

aperi2007 aperi2007 a gmail.com
Gio 2 Giu 2011 23:21:33 CEST


>Ciao!
>Qualche esperimento pratico sull'argomento in questione l'ho visto anch'io.
>
>Intanto leggo che su 1.000.000 di particelle sospette, ce ne erano la
>metà in cui gli edifici non erano accatastabili.
>Ma il SW ha estratto il milione di particelle dalla massa complessiva,
>di cui non ci dicono l'entità.

Infatti non si puo' stimare la capacità di individuazione in senso assoluto perche' non sappiamo l'ammontare
complessivo di unita' immobiliari e particelle.
Ma si puo' stimare l'errore compiuto, e secondo me lo stimiamo pure per difetto.

Perche' l'algoritmo estrae 1 Mil. di UI non accatastate , ma la meta' non erano da accatastare,
per cui l'errore di partenza sta sul 50%.
Ma la stime e' per difetto perche' in realta' mancano quelle "missed", ovvero quelle non in regola, ma che per le particolarita' dell'algoritmo non sono state
rilevate. Ovvero sono "scampate" alla spazzolata.

- A meno che le soglie non siano state tenute volutamente basse proprio per non far scampare nessuno, a costo di avere un sacco di falsi positivi. -

E poi se capisco bene si basano sul principo della assenza dalla carta catastale.
Per cui se io ho classificato la UI come baracca e invece era una villa, il software comunque vedeva qualcosa e quindi passava oltre ?

Insomma i dubbi sono tanti, quello che si sa' e' solo che l'errore compiuto sui rilevati e' del 50%.

Tecnicamente sarebbe interessante saperne di piu' perche' e' una indagine su larga scala e con successiva verifica sul posto,
per cui potrebbero identificare i punti deboli dell'algoritmo e introdurre dei correttivi.

Infatti se invece di restituirne 1.000.000 ne avesse restituiti chesso' 700.000 allora i falsi positivi sarebbero stati molto meno e così anche
le verifiche a perdere.

Andrea.




Maggiori informazioni sulla lista Gfoss