3° Evento Metrico 2022 (3EM2022)

  • 18 Nov 2022
  • 09:00 - 17:00
  • Centro Congressi Frentani (Via dei Frentani, 4 - 00185 Roma)
  • 15

Registration

  • Ingressi gratuiti
  • Prezzo regolare per la partecipazione all'evento.
    Prezzo IVA 22% incluso.
  • Ingresso con sconto del 10% dedicato alle associazioni che hanno stretto convenzioni con il GUFPI-ISMA

    Prezzo IVA 22% incluso.
  • Ingresso riservato ai soli soci GUFPI-ISMA iscritti all'associazione per il 2020.

Registration is closed


Venerdi 18 Novembre 2022 si terrà in presenza a ROMA presso il Centro Congressi Frentani dalle 09:00 alle 17:00, il 3° Evento Metrico 2022.

PROGRAMMA DELLA GIORNATA

08:30
Apertura segreteria e registrazione partecipanti

09:15  Evento metrico
 
1

Come misurare l’accuratezza reale delle classificazioni binarie (L.Lavazza – Università Insubria)
L’avanzamento continuo della statistica e dell’Artificial Intelligence (AI) ha reso disponibili molte tecniche per la costruzione di modelli di classificazione binaria, cioè di modelli che in base a caratteristiche note e facilmente misurabili sono in grado di fare previsioni riguardo a caratteristiche binarie (vero/falso) meno facilmente valutabili. Un esempio di questi modelli sono che cercano di prevedere la difettosità di un modulo software in base ad alcune sue caratteristiche facilmente misurabili (dimensioni, complessità, ecc.). La disponibilità di molteplici modelli di previsione richiede di valutarli, per escludere quelli inadeguati o scegliere il migliore. A questo scopo sono state proposte numerose metriche (Precision, Recall, F-measure, Accuracy, G-mean, Matthews Correlation Coiefficient, ecc.), alcune delle quali sono ampiamente usate. Sfortunatamente, l'utilizzo di misure inappropriate può portare a valutazioni decisamente scorrette. Nei casi peggiori (ma non infrequenti) si può perfino essere indotti a considerare buoni dei modelli i cui risultati sono peggiori perfino della classificazione puramente causale (ottenuta ad esempio lanciando i dadi). La presentazione fornisce nozioni fondamentali sulle misure di accuratezza, su come usarle e su come interpretare i risultati ottenuti, anche in base alle caratteristiche del test set, cioè del set di dati usato per testare i modelli disponibili. Da ultimo, si valuta l'uso di una misura che non si limita a costruire un indicatore asettico e sintetico a partire dalle previsioni ottenute e dal loro confronto con i valori reali, ma considera invece il costo degli errori di previsione


2 Diversity & Inclusion: un valore per le aziende e la società (L. Mancini – Donne 4.0, OWASP D&I Committee)
Durante la presentazione verranno analizzati alcuni punti sul tema gender balance e diversity. Elementi che vengono affrontati sotto diversi punti di vista sia etici che legislativi, ma che possono essere anche un elemento di valorizzazione del business e di crescita della società.


3 Low-Code/No-code. A new development paradigm: how does it work and which productivity/PDR levels should be assumed? [Reloaded] (M.Perrotti, L. Buglione- DXC Technology)

“Low Code/ No Code” is a new development paradigm. It shortens re-development times (and costs) when an organization decides to move software system/application from old, legacy architecture to a newer, more maintainable one. No matter the platform used, this presentation will introduce the core concepts for this paradigm with concrete examples from real projects and sizing with a fsu (functional sizing unit). It will determine the related productivity/PDR levels to enable accurate estimates with the lowest MRE possible


 4 Automated Assessment of Open Government Data Based on ISO 25024 Quality Measures (M.Torchiano, A.Vetrò – Politecnico Torino)

The cost of low quality data has been estimated as an increasingly expensive factor affecting information systems operation. Public administrations, as part of their mission to serve society and provide transparency, are publishing their open data that can be used by companies to offer added value services that have the potential to improve citizens' life. ISO 25012 and 25024 provide a standard framework to assess the quality of data as a set of quality characteristics and corresponding quality measures. Our goal was to evaluate the quality of Open Government Data using an automated approach based on the standard measures.We developed a proof-of-concept tool that implements the computation of a few measures related to Accuracy, Completeness, and Consistency on a large quantity of open data sets. The result of the automated measurement on a large sample of open data sets resulted in the detection of multiple data quality issues. Some issues detected with this approach represent actual defects in data. Automated measurement of a subset of the quality characteristics can represent a viable approach to detecting potential quality problems and to improve the overall data quality.


5 E’ facile iniziare a misurare (P.Billia – NTT Data)
Perchè misurare: velocità e agilità sono le parole chiave della trasformazione digitale nell’era dello smartworking saper scegliere gli indicatori e ‘misurare’ significa trasparenza e aumento della fiducia tra le parti. Quando misurare: implementare il processo di misurazione vuol dire modificare il processo di sviluppo del sw, predisponendosi per la misurazione fin dalla fase di stima, dalla raccolta all’analisi dei ‘dati’ (indicatori) per ottenere un ‘continuos improvement’. Come misurare: approccio sistemico, la metodologia di misura puo’ essere vista come un sistema complesso, formato da diversi sottosistemi correlati tra loro. Comunicare i risultati: cosa bisogna tenere in mente per una buona comunicazione evitando i pregiudizi ? La comunicazione tra gli stakeholder è una parte essenziale del successo di qualsiasi progetto, entra in gioco il fattore umano che può portare a conflitti, come evitarli? Conclusione: quali sono i punti essenziali nel progettare e gestire un sistema metrico, come ottenere dei benefici e condividerli affinchè si possa dire ‘è facile iniziare a misurare’.

6 Il modello VAMOS-R3 nell’approvvigionamento di software personalizzato della Provincia Autonoma di Bolzano (S.Venturin – Informatica Alto Adige SpA, R.Meli – DPO)
Le prassi di approvvigionamento di software su misura (ad hoc), nel mercato italiano, sono divenute non solo inadeguate ma addirittura controproducenti. Questo deriva principalmente da tre distinti fenomeni. In primo luogo, si è assistito, negli anni, ad una progressione apparentemente senza limiti dell’abbassamento delle basi d’asta e dei ribassi d’offerta e quindi delle tariffe unitarie di assegnazione dei contratti basati sui Function Point. In secondo luogo si è diffusa l’illusione che il valore associabile alla sola misura funzionale potesse remunerare anche i requisiti di tipo non funzionale e di processo produttivo, sempre più rilevanti nei moderni cicli di vita. In terzo luogo, l’adozione di prezzi unitari fondamentalmente invarianti rispetto alle caratteristiche di prodotto e processo rende l’approvvigionamento aleatorio rispetto alle specifiche situazioni da remunerare. Questi fenomeni tolgono trasparenza al processo di approvvigionamento lasciando le parti committenti o le stazioni appaltanti nell’illusione che se i contratti vengono assegnati questo vuol dire che sono tutto sommato sostenibili dai fornitori. La prassi delle “partite compensative” diventa così norma non scritta per far quadrare il cerchio. La Provincia Autonoma di Bolzano e l’Informatica Alto Adige hanno preso atto di questa situazione già da tempo e hanno, nella loro autonomia di gestione, intrapreso una strada evolutiva rispetto ai modelli di approvvigionamento. L’ultima evoluzione è l’adozione del modello di costo VAMOS-R3, ideato da DPO, nell’ambito della Convenzione Quadro ACP “Servizi ICT” per lo sviluppo di software personalizzato. Nell’intervento sarà presentato il modello nei sui tratti principali, la valutazione dell’esperienza fatta e le prospettive future.

7

Agile Team Performance Measurement as a basis for accurate Cost and Value Estimation (H. van Heeringen – ISBSG)

Agile team performance metrics Productivity, Cost Efficiency, Delivery Speed, Sprint Quality and Product quality can be measured in an objective, repeatable and verifiable way, compared to each other and benchmarked against industry data. The measurement data is used to recalibrate long term effort, duration and cost estimates based on the actual productivity delivered, resulting in increased predictability. I’ll show a recent study of 4 teams of one organization, each in a different European country.


 8

Misurazione del Know-how aziendale: tra informazioni riservate e dati strutturati (M.Canalini)

L’obiettivo è quello di analizzare il business aziendale e di ricondurlo agli elementi chiave del know-how (come da definizioni a livello europeo) da un lato preservando la segretezza del prezioso bene intangibile, dall’altro consentirne una esposizione solida e autorevole, anche in termini economici. Considerazioni: ormai oggi know-how significa dati, digitalizzati e strutturati, e l’affinità con le tematiche che tratta GUFPI-ISMA è evidente. Il caso proposto di valutazione del know-how aziendale (…partito quasi per gioco…) evidenzia come si è arrivati ad una due diligence aziendale, anche in termini di algoritmi di calcolo, e che ne tracciasse il valore economico. La valutazione, è stata fatta alla luce dei recenti interventi normativi in materia di rivalutazione degli asset intangibili, e della normativa relativa alle b-corp.


 9

Il metodo Simple Function Point: stato di avanzamento del progetto speciale IFPUG (Roberto Meli – IFPUG)

Il metodo Simple Function Point è l’ultimo arrivato nella famiglia degli standard IFPUG (la prima pubblicazione sul sito dell’associazione data fine 2021). L’IFPUG ha costituito una task force che coinvolge tutti i Comitati dell’associazione al fine di accompagnare sul mercato la diffusione di questo nuovo metodo. La presentazione, dopo aver tratteggiato in modo sintetico le caratteristiche del metodo, illustrerà gli obiettivi, la composizione e organizzazione del team, i deliverable previsti e la tempistica del loro raggiungimento con l’indicazione dello stato di avanzamento.


 10

A Journey Inside the White Paper “Boundaries and Partitions”… How to Escape from the Trap of Subjectivity (F. Di Cola, D.Zottarel, E.Sanchez, C.Tichenor - IFPUG)

[presentazione valida per il programma IFPUG CEP – Certification Extension Program]

SNAP introduces a new concept into the IFPUG software metrics methodology – that of the “partition.” In this webinar we will overview the concept of the partition, referencing one of IFPUG’s newest publications, the white paper “Boundaries and Partitions”. What can be the criteria for making the placement of boundaries and partitions more objective? Attendees will be guided step by step within the paper illustrating the pros and cons of different choices to answer this question. It will be a journey between functional and non-functional to discover the solution proposed by IFPUG for each measurement scenario: the joint use of FP (or SFP) and SNAP to fully enjoy the benefits of using IFPUG.


17:00 Chiusura sessione on-line e verifica partecipazione per validazione crediti 

La partecipazione all'evento dà diritto a 1 CEC IFPUG e 5 PDU  


Powered by Wild Apricot Membership Software