Bando stars 2025 Commissione di valutazione – componenti

Array ( [field_titolo_frontend] => Array ( [#theme] => field [#weight] => -4 [#title] => Titolo frontend [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_titolo_frontend [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496150 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione – componenti [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119752 [type] => elemento_accordion [language] => it [created] => 1752060051 [changed] => 1752060051 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060051 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119751 [access] => 1 [node] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Commissione di valutazione – componenti [format] => [safe_value] => Commissione di valutazione – componenti ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496150 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Commissione di valutazione – componenti [format] => [safe_value] => Commissione di valutazione – componenti ) ) [#formatter] => text_default [0] => Array ( [#markup] => Commissione di valutazione – componenti ) ) [field_allegato_element] => Array ( [#theme] => field [#weight] => -2 [#title] => Elemento allegato [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_allegato_element [#field_type] => node_reference [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496150 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione – componenti [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119752 [type] => elemento_accordion [language] => it [created] => 1752060051 [changed] => 1752060051 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060051 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119751 [access] => 1 [node] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Commissione di valutazione – componenti [format] => [safe_value] => Commissione di valutazione – componenti ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496150 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [nid] => 119751 [access] => 1 [node] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) [#formatter] => node_reference_default [0] => Array ( [#type] => link [#title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [#href] => node/119751 [#options] => Array ( [entity_type] => node [entity] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_accordion_state] => Array ( [#theme] => field [#weight] => -1 [#title] => Aperto/Chiuso [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_accordion_state [#field_type] => list_text [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496150 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione – componenti [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119752 [type] => elemento_accordion [language] => it [created] => 1752060051 [changed] => 1752060051 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060051 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119751 [access] => 1 [node] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Commissione di valutazione – componenti [format] => [safe_value] => Commissione di valutazione – componenti ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496150 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => chiuso ) ) [#formatter] => text_default [0] => Array ( [#markup] => chiuso ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Bando stars 2025 Commissione di valutazione – componenti [href] => node/119752 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Bando stars 2025 Commissione di valutazione – componenti ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) [field_outline_level] => Array ( [#theme] => field [#weight] => 31 [#title] => Livello outline [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_outline_level [#field_type] => list_text [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496150 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione – componenti [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119752 [type] => elemento_accordion [language] => it [created] => 1752060051 [changed] => 1752060051 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060051 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119751 [access] => 1 [node] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Commissione di valutazione – componenti [format] => [safe_value] => Commissione di valutazione – componenti ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496150 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => h3 ) ) [#formatter] => text_default [0] => Array ( [#markup] => h3 ) ) )

Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea

Array ( [field_titolo_frontend_all] => Array ( [#theme] => field [#weight] => -4 [#title] => Titolo frontend [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_titolo_frontend_all [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) [#formatter] => text_default [0] => Array ( [#markup] => Coordinatori sottocommissioni di macroarea ) ) [field_allegato_file] => Array ( [#theme] => field [#weight] => -3 [#title] => File [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_allegato_file [#field_type] => file [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496149 [uid] => 4 [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119751 [type] => allegato [language] => it [created] => 1752060043 [changed] => 1752060043 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752060043 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Coordinatori sottocommissioni di macroarea [format] => [safe_value] => Coordinatori sottocommissioni di macroarea ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496149 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) [#formatter] => file_default [0] => Array ( [#theme] => file_link [#file] => stdClass Object ( [fid] => 141236 [uid] => 4 [filename] => Coordinatori sottocommissioni STARS 2025.pdf [uri] => public://2025/Coordinatori sottocommissioni STARS 2025.pdf [filemime] => application/pdf [filesize] => 196845 [status] => 1 [timestamp] => 1752060037 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea [href] => node/119751 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Bando stars 2025 Commissione di valutazione Coordinatori sottocommissioni di macroarea ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) )

Bando stars 2025 Verifica amministrativa

Array ( [field_titolo_frontend] => Array ( [#theme] => field [#weight] => -4 [#title] => Titolo frontend [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_titolo_frontend [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496148 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119750 [type] => elemento_accordion [language] => it [created] => 1752059966 [changed] => 1752059966 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059966 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119749 [access] => 1 [node] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Verifica amministrativa [format] => [safe_value] => Verifica amministrativa ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496148 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Verifica amministrativa [format] => [safe_value] => Verifica amministrativa ) ) [#formatter] => text_default [0] => Array ( [#markup] => Verifica amministrativa ) ) [field_allegato_element] => Array ( [#theme] => field [#weight] => -2 [#title] => Elemento allegato [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_allegato_element [#field_type] => node_reference [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496148 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119750 [type] => elemento_accordion [language] => it [created] => 1752059966 [changed] => 1752059966 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059966 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119749 [access] => 1 [node] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Verifica amministrativa [format] => [safe_value] => Verifica amministrativa ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496148 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [nid] => 119749 [access] => 1 [node] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) [#formatter] => node_reference_default [0] => Array ( [#type] => link [#title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [#href] => node/119749 [#options] => Array ( [entity_type] => node [entity] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_accordion_state] => Array ( [#theme] => field [#weight] => -1 [#title] => Aperto/Chiuso [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_accordion_state [#field_type] => list_text [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496148 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119750 [type] => elemento_accordion [language] => it [created] => 1752059966 [changed] => 1752059966 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059966 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119749 [access] => 1 [node] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Verifica amministrativa [format] => [safe_value] => Verifica amministrativa ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496148 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => chiuso ) ) [#formatter] => text_default [0] => Array ( [#markup] => chiuso ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Bando stars 2025 Verifica amministrativa [href] => node/119750 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Bando stars 2025 Verifica amministrativa ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) [field_outline_level] => Array ( [#theme] => field [#weight] => 31 [#title] => Livello outline [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_outline_level [#field_type] => list_text [#field_translatable] => 0 [#entity_type] => node [#bundle] => elemento_accordion [#object] => stdClass Object ( [vid] => 496148 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119750 [type] => elemento_accordion [language] => it [created] => 1752059966 [changed] => 1752059966 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059966 [revision_uid] => 4 [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_accordion_state] => Array ( [und] => Array ( [0] => Array ( [value] => chiuso ) ) ) [field_allegato_element] => Array ( [und] => Array ( [0] => Array ( [nid] => 119749 [access] => 1 [node] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) ) ) ) [field_outline_level] => Array ( [und] => Array ( [0] => Array ( [value] => h3 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Verifica amministrativa [format] => [safe_value] => Verifica amministrativa ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496148 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => h3 ) ) [#formatter] => text_default [0] => Array ( [#markup] => h3 ) ) )

Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità

Array ( [field_titolo_frontend_all] => Array ( [#theme] => field [#weight] => -4 [#title] => Titolo frontend [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_titolo_frontend_all [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) [#formatter] => text_default [0] => Array ( [#markup] => Esiti del controllo di ammissibilità ) ) [field_allegato_file] => Array ( [#theme] => field [#weight] => -3 [#title] => File [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_allegato_file [#field_type] => file [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496147 [uid] => 4 [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119749 [type] => allegato [language] => it [created] => 1752059960 [changed] => 1752059960 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752059960 [revision_uid] => 4 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Esiti del controllo di ammissibilità [format] => [safe_value] => Esiti del controllo di ammissibilità ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => simonetta.capparotto [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:37:"form-fe5ebd9e5e240c4294455b6b42fa6a76";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 1 [current_revision_id] => 496147 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) [#formatter] => file_default [0] => Array ( [#theme] => file_link [#file] => stdClass Object ( [fid] => 141235 [uid] => 4 [filename] => STARS_2025_AMMISSIBILITA_WEB.pdf [uri] => public://2025/STARS_2025_AMMISSIBILITA_WEB.pdf [filemime] => application/pdf [filesize] => 241196 [status] => 1 [timestamp] => 1752059929 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità [href] => node/119749 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Bando stars 2025 Verifica amministrativa Esiti del controllo di ammissibilità ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) )

Does AI really recognize our emotions?

Array ( [body] => Array ( [#theme] => field [#weight] => 0 [#title] => Body [#access] => 1 [#label_display] => hidden [#view_mode] => teaser [#language] => und [#field_name] => body [#field_type] => text_with_summary [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 496134 [uid] => 26499 [title] => Does AI really recognize our emotions? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119748 [type] => box_lancio_news [language] => it [created] => 1752055914 [changed] => 1752055950 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752055950 [revision_uid] => 26499 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[summary] => [format] => 2 [safe_value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes [format] => [safe_value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2296 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-10T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni [format] => [safe_value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => Italian version [format] => [safe_value] => Italian version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 2 [current_revision_id] => 496134 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[summary] => [format] => 2 [safe_value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[safe_summary] => ) ) [#formatter] => text_summary_or_trimmed [0] => Array ( [#markup] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses.

) ) [field_img_box_lancio_news] => Array ( [#theme] => field [#weight] => 0 [#title] => Immagine [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_img_box_lancio_news [#field_type] => image [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 496134 [uid] => 26499 [title] => Does AI really recognize our emotions? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119748 [type] => box_lancio_news [language] => it [created] => 1752055914 [changed] => 1752055950 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752055950 [revision_uid] => 26499 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[summary] => [format] => 2 [safe_value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes [format] => [safe_value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2296 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-10T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni [format] => [safe_value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => Italian version [format] => [safe_value] => Italian version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 2 [current_revision_id] => 496134 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) ) [#formatter] => image [0] => Array ( [#theme] => image_formatter [#item] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) [#image_style] => [#path] => ) ) [field_abstract_news] => Array ( [#theme] => field [#weight] => 0 [#title] => Abstract [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_abstract_news [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 496134 [uid] => 26499 [title] => Does AI really recognize our emotions? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119748 [type] => box_lancio_news [language] => it [created] => 1752055914 [changed] => 1752055950 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752055950 [revision_uid] => 26499 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[summary] => [format] => 2 [safe_value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes [format] => [safe_value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2296 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-10T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni [format] => [safe_value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => Italian version [format] => [safe_value] => Italian version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 2 [current_revision_id] => 496134 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes [format] => [safe_value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) [#formatter] => text_default [0] => Array ( [#markup] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Does AI really recognize our emotions? [href] => node/119748 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Does AI really recognize our emotions? ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) [field_date_box_lancio_news] => Array ( [#theme] => field [#weight] => 1 [#title] => Data [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_date_box_lancio_news [#field_type] => date [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 496134 [uid] => 26499 [title] => Does AI really recognize our emotions? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119748 [type] => box_lancio_news [language] => it [created] => 1752055914 [changed] => 1752055950 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752055950 [revision_uid] => 26499 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[summary] => [format] => 2 [safe_value] =>

A recent study conducted by Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, published in "Royal Society Open Science", reveals that generative AI models can emulate human emotional reactions to visual scenes. Despite not being specifically trained for this task, the AI systems have demonstrated a surprising alignment with human emotional assessments. Artificial intelligence is beginning to recognise not only words but also our emotional responses. The textual descriptions of images used to train modern generative AI models contain information not only about the semantic content of the images but also about the emotional state of the people providing these descriptions.

This is the finding from the research conducted by the University of Padua team. Zaira Romeo from the CNR and Alberto Testolin from the University of Padua, in their study "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", published in the journal "Royal Society Open Science", tested several large multimodal language models to see if they could emulate human emotional reactions to various visual scenes. The evaluations provided by the AI showed a remarkable alignment with human ones, even though the systems were not specifically trained for emotional judgments on images. This suggests that language can support the development of emotional concepts in AI systems, raising questions about how these technologies might be used in sensitive contexts such as elder care, education, and mental health support.

The authors examined the responses of generative AI systems like GPT, Gemini, and Claude to questions about the emotional content of standardised images, finding that AI evaluations closely matched human ones, with GPT providing the most aligned responses, though tending to overestimate human judgments for emotionally intense stimuli. Often, the AI explicitly stated that it was guessing the response based on what an average human would say. The AI systems were tested on three fundamental affective dimensions (pleasantness, approach/avoidance tendency, activation) and six basic emotions (happiness, anger, fear, sadness, disgust, surprise).

This is the first study where AI responses are explicitly compared with human emotional judgments, and the result undoubtedly opens a new perspective on the emotional capabilities of these systems. However, the authors clarify, the ability of AI to emulate human emotional judgments does not imply that it experiences emotions. It is likely that the textual descriptions of the images used to train the systems are so rich that they convey information about the emotional state of the human descriptor.

"Be careful though, the fact that AI can accurately emulate our emotional judgments does not imply that it has the ability to experience emotions," Zaira Romeo and Alberto Testolin emphasise. "The most plausible explanation is that the textual descriptions of the images used to train these systems are extremely rich and informative, to the point of conveying not only information about the semantic content of the image but also about the emotional state of the person providing the description. This hypothesis is well aligned with psychological theories that highlight the importance of language in shaping thought and structuring the world we inhabit, including the development of our emotions. At the same time, this research also raises important questions about how future AI technologies might be used in increasingly sensitive contexts such as elder care, education, and mental health support," they conclude. "In addition to understanding the emotional content of a situation, we must ensure that the behaviour adopted by AI in these contexts is always aligned with our ethical and moral value system."

Once again, new ethical and moral questions arise about how future AI technologies might be used in sensitive contexts, ensuring that their behaviour is always aligned with our values.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141231 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2_0.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752055914 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Human robot head with radial emoticons [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes [format] => [safe_value] => A study conducted by Unipd reveals that generative AI models can emulate human emotional reactions to visual scenes ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2296 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-10T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni [format] => [safe_value] => https://www.unipd.it/news/lia-riconosce-nostre-emozioni ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => Italian version [format] => [safe_value] => Italian version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 2 [current_revision_id] => 496134 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) [#formatter] => date_default [0] => Array ( [#markup] => Mer, 09/07/2025 ) ) )

L'IA riconosce davvero le nostre emozioni ?

Array ( [body] => Array ( [#theme] => field [#weight] => 0 [#title] => Body [#access] => 1 [#label_display] => hidden [#view_mode] => teaser [#language] => und [#field_name] => body [#field_type] => text_with_summary [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 497464 [uid] => 26499 [title] => L'IA riconosce davvero le nostre emozioni ? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119747 [type] => box_lancio_news [language] => it [created] => 1752054565 [changed] => 1753094706 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1753094706 [revision_uid] => 2032 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[summary] => [format] => 2 [safe_value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive [format] => [safe_value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2264 ) [1] => Array ( [tid] => 2266 ) [2] => Array ( [tid] => 2267 ) [3] => Array ( [tid] => 2462 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions [format] => [safe_value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => English version [format] => [safe_value] => English version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 7 [current_revision_id] => 497464 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[summary] => [format] => 2 [safe_value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[safe_summary] => ) ) [#formatter] => text_summary_or_trimmed [0] => Array ( [#markup] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani.

) ) [field_img_box_lancio_news] => Array ( [#theme] => field [#weight] => 0 [#title] => Immagine [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_img_box_lancio_news [#field_type] => image [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 497464 [uid] => 26499 [title] => L'IA riconosce davvero le nostre emozioni ? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119747 [type] => box_lancio_news [language] => it [created] => 1752054565 [changed] => 1753094706 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1753094706 [revision_uid] => 2032 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[summary] => [format] => 2 [safe_value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive [format] => [safe_value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2264 ) [1] => Array ( [tid] => 2266 ) [2] => Array ( [tid] => 2267 ) [3] => Array ( [tid] => 2462 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions [format] => [safe_value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => English version [format] => [safe_value] => English version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 7 [current_revision_id] => 497464 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) ) [#formatter] => image [0] => Array ( [#theme] => image_formatter [#item] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) [#image_style] => [#path] => ) ) [field_abstract_news] => Array ( [#theme] => field [#weight] => 0 [#title] => Abstract [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_abstract_news [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 497464 [uid] => 26499 [title] => L'IA riconosce davvero le nostre emozioni ? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119747 [type] => box_lancio_news [language] => it [created] => 1752054565 [changed] => 1753094706 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1753094706 [revision_uid] => 2032 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[summary] => [format] => 2 [safe_value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive [format] => [safe_value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2264 ) [1] => Array ( [tid] => 2266 ) [2] => Array ( [tid] => 2267 ) [3] => Array ( [tid] => 2462 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions [format] => [safe_value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => English version [format] => [safe_value] => English version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 7 [current_revision_id] => 497464 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive [format] => [safe_value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) [#formatter] => text_default [0] => Array ( [#markup] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about L'IA riconosce davvero le nostre emozioni ? [href] => node/119747 [html] => 1 [attributes] => Array ( [rel] => tag [title] => L'IA riconosce davvero le nostre emozioni ? ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) [field_date_box_lancio_news] => Array ( [#theme] => field [#weight] => 1 [#title] => Data [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_date_box_lancio_news [#field_type] => date [#field_translatable] => 0 [#entity_type] => node [#bundle] => box_lancio_news [#object] => stdClass Object ( [vid] => 497464 [uid] => 26499 [title] => L'IA riconosce davvero le nostre emozioni ? [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119747 [type] => box_lancio_news [language] => it [created] => 1752054565 [changed] => 1753094706 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1753094706 [revision_uid] => 2032 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[summary] => [format] => 2 [safe_value] =>

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.

[safe_summary] => ) ) ) [field_date_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_etichetta_box_lancio_news] => Array ( ) [field_img_box_lancio_news] => Array ( [und] => Array ( [0] => Array ( [fid] => 141230 [uid] => 26499 [filename] => Figure_AI2.jpg [uri] => public://Figure_AI2.jpg [filemime] => image/jpeg [filesize] => 300165 [status] => 1 [timestamp] => 1752054565 [type] => image [field_file_image_alt_text] => Array ( ) [field_file_image_title_text] => Array ( ) [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2048 ) ) ) [metadata] => Array ( [height] => 630 [width] => 1200 ) [height] => 630 [width] => 1200 [alt] => Testa umana robot con emoticon a raggera [title] => ) ) ) [field_link_alla_news] => Array ( ) [field_link_esterno_news] => Array ( ) [field_pagina_associata] => Array ( ) [field_link_etichetta] => Array ( ) [field_abstract_news] => Array ( [und] => Array ( [0] => Array ( [value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive [format] => [safe_value] => Uno studio condotto da Unipd rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive ) ) ) [field_allegato_news] => Array ( ) [field_categorie_news] => Array ( [und] => Array ( [0] => Array ( [tid] => 2264 ) [1] => Array ( [tid] => 2266 ) [2] => Array ( [tid] => 2267 ) [3] => Array ( [tid] => 2462 ) ) ) [field_pub_date] => Array ( [und] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [value2] => 2026-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) ) [field_layout_news] => Array ( [und] => Array ( [0] => Array ( [value] => single ) ) ) [field_testo_opzionale_news] => Array ( ) [field_url_en_page] => Array ( [und] => Array ( [0] => Array ( [value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions [format] => [safe_value] => https://www.unipd.it/news/does-aireally-recognize-our-emotions ) ) ) [field_url_en_page_label] => Array ( [und] => Array ( [0] => Array ( [value] => English version [format] => [safe_value] => English version ) ) ) [path] => Array ( [pathauto] => 1 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 7 [current_revision_id] => 497464 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => 2025-07-09T00:00:00 [timezone] => Europe/Paris [timezone_db] => Europe/Paris [date_type] => date ) ) [#formatter] => date_default [0] => Array ( [#markup] => Mer, 09/07/2025 ) ) )

Procedura comparativa n. 2025PV32

Array ( [body] => Array ( [#theme] => field [#weight] => -4 [#title] => Body [#access] => 1 [#label_display] => hidden [#view_mode] => teaser [#language] => und [#field_name] => body [#field_type] => text_with_summary [#field_translatable] => 0 [#entity_type] => node [#bundle] => foglia_complessa [#object] => stdClass Object ( [vid] => 497135 [uid] => 26499 [title] => Procedura comparativa n. 2025PV32 [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119746 [type] => foglia_complessa [language] => it [created] => 1752051508 [changed] => 1752829562 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752829562 [revision_uid] => 32 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_3] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[summary] => [format] => 2 [safe_value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[safe_summary] => ) ) ) [field_foglia_complessa_accordion] => Array ( ) [field_foglia_complessa_allegato] => Array ( ) [field_image_fc] => Array ( ) [field_testo_opzionale_fc] => Array ( [und] => Array ( [0] => Array ( [nid] => 115807 [access] => 1 [node] => stdClass Object ( [vid] => 497057 [uid] => 32 [title] => Ufficio Personale Tecnico Amministrativo- PEV [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 115807 [type] => testo_opzionale [language] => it [created] => 1736946220 [changed] => 1752765968 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752765968 [revision_uid] => 13 [field_testo_opz] => Array ( [und] => Array ( [0] => Array ( [value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

[format] => 2 [safe_value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

) ) ) [name] => stefano.zampieri [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:48:"form-WsCySmos4vAVlyFhG6gU5T7knfAyqco8LxlocSU_yIA";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 5 [current_revision_id] => 497057 [is_current] => 1 [is_pending] => [revision_moderation] => ) ) ) ) [field_immagine_top] => Array ( ) [field_immagine_bottom] => Array ( ) [field_immagine_decorativa_latera] => Array ( ) [field_link_in_evidenza] => Array ( ) [field_usa_layout_pagina_link] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_etichetta_link_in_evidenza] => Array ( ) [field_tabs] => Array ( [und] => Array ( [0] => Array ( [nid] => 119742 [access] => 1 ) [1] => Array ( [nid] => 119743 [access] => 1 ) [2] => Array ( [nid] => 119745 [access] => 1 ) ) ) [field_condividi_social] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_formato_immagine] => Array ( ) [field_video_link] => Array ( ) [field_nosidebar] => Array ( [und] => Array ( [0] => Array ( [value] => 1 ) ) ) [field_chatbot] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_chatbot_codice_chat] => Array ( ) [field_header_custom] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_header_custom_ref] => Array ( ) [field_accessiway] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_footer_custom] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_footer_custom_ref] => Array ( ) [field_usa_layout_hero] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_note_interne] => Array ( ) [field_url_en_page] => Array ( ) [field_crawler_ai] => Array ( ) [path] => Array ( [pathauto] => 0 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 15 [current_revision_id] => 497135 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[summary] => [format] => 2 [safe_value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[safe_summary] => ) ) [#formatter] => text_summary_or_trimmed [0] => Array ( [#markup] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Procedura comparativa n. 2025PV32 [href] => node/119746 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Procedura comparativa n. 2025PV32 ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) [field_testo_opzionale_fc] => Array ( [#theme] => field [#weight] => 1 [#title] => Testo Opzionale [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_testo_opzionale_fc [#field_type] => node_reference [#field_translatable] => 0 [#entity_type] => node [#bundle] => foglia_complessa [#object] => stdClass Object ( [vid] => 497135 [uid] => 26499 [title] => Procedura comparativa n. 2025PV32 [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119746 [type] => foglia_complessa [language] => it [created] => 1752051508 [changed] => 1752829562 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752829562 [revision_uid] => 32 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_3] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[summary] => [format] => 2 [safe_value] =>

Procedura comparativa n. 2025PV32 per titoli riservata al personale tecnico amministrativo in servizio presso l’Università degli Studi di Padova ai fini della progressione tra le aree (c.d. P.E.V.) nell’area dei Funzionari.

Scadenza: 31 luglio 2025, ore 12

[safe_summary] => ) ) ) [field_foglia_complessa_accordion] => Array ( ) [field_foglia_complessa_allegato] => Array ( ) [field_image_fc] => Array ( ) [field_testo_opzionale_fc] => Array ( [und] => Array ( [0] => Array ( [nid] => 115807 [access] => 1 [node] => stdClass Object ( [vid] => 497057 [uid] => 32 [title] => Ufficio Personale Tecnico Amministrativo- PEV [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 115807 [type] => testo_opzionale [language] => it [created] => 1736946220 [changed] => 1752765968 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752765968 [revision_uid] => 13 [field_testo_opz] => Array ( [und] => Array ( [0] => Array ( [value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

[format] => 2 [safe_value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

) ) ) [name] => stefano.zampieri [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:48:"form-WsCySmos4vAVlyFhG6gU5T7knfAyqco8LxlocSU_yIA";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 5 [current_revision_id] => 497057 [is_current] => 1 [is_pending] => [revision_moderation] => ) ) ) ) [field_immagine_top] => Array ( ) [field_immagine_bottom] => Array ( ) [field_immagine_decorativa_latera] => Array ( ) [field_link_in_evidenza] => Array ( ) [field_usa_layout_pagina_link] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_etichetta_link_in_evidenza] => Array ( ) [field_tabs] => Array ( [und] => Array ( [0] => Array ( [nid] => 119742 [access] => 1 ) [1] => Array ( [nid] => 119743 [access] => 1 ) [2] => Array ( [nid] => 119745 [access] => 1 ) ) ) [field_condividi_social] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_formato_immagine] => Array ( ) [field_video_link] => Array ( ) [field_nosidebar] => Array ( [und] => Array ( [0] => Array ( [value] => 1 ) ) ) [field_chatbot] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_chatbot_codice_chat] => Array ( ) [field_header_custom] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_header_custom_ref] => Array ( ) [field_accessiway] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_footer_custom] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_footer_custom_ref] => Array ( ) [field_usa_layout_hero] => Array ( [und] => Array ( [0] => Array ( [value] => 0 ) ) ) [field_note_interne] => Array ( ) [field_url_en_page] => Array ( ) [field_crawler_ai] => Array ( ) [path] => Array ( [pathauto] => 0 ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 15 [current_revision_id] => 497135 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [nid] => 115807 [access] => 1 [node] => stdClass Object ( [vid] => 497057 [uid] => 32 [title] => Ufficio Personale Tecnico Amministrativo- PEV [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 115807 [type] => testo_opzionale [language] => it [created] => 1736946220 [changed] => 1752765968 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752765968 [revision_uid] => 13 [field_testo_opz] => Array ( [und] => Array ( [0] => Array ( [value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

[format] => 2 [safe_value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

) ) ) [name] => stefano.zampieri [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:48:"form-WsCySmos4vAVlyFhG6gU5T7knfAyqco8LxlocSU_yIA";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 5 [current_revision_id] => 497057 [is_current] => 1 [is_pending] => [revision_moderation] => ) ) ) [#formatter] => node_reference_default [0] => Array ( [#type] => link [#title] => Ufficio Personale Tecnico Amministrativo- PEV [#href] => node/115807 [#options] => Array ( [entity_type] => node [entity] => stdClass Object ( [vid] => 497057 [uid] => 32 [title] => Ufficio Personale Tecnico Amministrativo- PEV [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 115807 [type] => testo_opzionale [language] => it [created] => 1736946220 [changed] => 1752765968 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752765968 [revision_uid] => 13 [field_testo_opz] => Array ( [und] => Array ( [0] => Array ( [value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

[format] => 2 [safe_value] =>

Ufficio Personale tecnico amministrativo

Palazzo Storione
riviera Tito Livio 6 - 35123 Padova

Per ulteriori informazioni e chiarimenti è possibile inviare domande utilizzando il servizio di Help desk Area Risorse umane – Ufficio Personale tecnico amministrativo – Settore Reclutamento alla seguente coda: Progressioni verticali tra le aree – PEV

tel. 049 827 3155 - 1562

) ) ) [name] => stefano.zampieri [picture] => 0 [data] => a:2:{s:13:"form_build_id";s:48:"form-WsCySmos4vAVlyFhG6gU5T7knfAyqco8LxlocSU_yIA";s:14:"wysiwyg_status";a:1:{i:1;i:1;}} [num_revisions] => 5 [current_revision_id] => 497057 [is_current] => 1 [is_pending] => [revision_moderation] => ) ) ) ) )

Procedura comparativa n. 2025PV32 - Documenti

Array ( [body] => Array ( [#theme] => field [#weight] => 0 [#title] => Body [#access] => 1 [#label_display] => hidden [#view_mode] => teaser [#language] => und [#field_name] => body [#field_type] => text_with_summary [#field_translatable] => 0 [#entity_type] => node [#bundle] => tab [#object] => stdClass Object ( [vid] => 496118 [uid] => 26499 [title] => Procedura comparativa n. 2025PV32 - Documenti [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119745 [type] => tab [language] => it [created] => 1752051498 [changed] => 1752829558 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752829558 [revision_uid] => 32 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

La procedura informatica sarà attiva a partire dalle ore 12 del 18 luglio 2025, con termine perentorio alle ore 12 del 31 luglio 2025.

[summary] => [format] => 2 [safe_value] =>

La procedura informatica sarà attiva a partire dalle ore 12 del 18 luglio 2025, con termine perentorio alle ore 12 del 31 luglio 2025.

[safe_summary] => ) ) ) [field_foglia_complessa_allegato] => Array ( [und] => Array ( [0] => Array ( [nid] => 119744 [access] => 1 ) [1] => Array ( [nid] => 119941 [access] => 1 ) ) ) [field_tabella] => Array ( ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Documenti [format] => [safe_value] => Documenti ) ) ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 1 [current_revision_id] => 496118 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] =>

La procedura informatica sarà attiva a partire dalle ore 12 del 18 luglio 2025, con termine perentorio alle ore 12 del 31 luglio 2025.

[summary] => [format] => 2 [safe_value] =>

La procedura informatica sarà attiva a partire dalle ore 12 del 18 luglio 2025, con termine perentorio alle ore 12 del 31 luglio 2025.

[safe_summary] => ) ) [#formatter] => text_summary_or_trimmed [0] => Array ( [#markup] =>

La procedura informatica sarà attiva a partire dalle ore 12 del 18 luglio 2025, con termine perentorio alle ore 12 del 31 luglio 2025.

) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Procedura comparativa n. 2025PV32 - Documenti [href] => node/119745 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Procedura comparativa n. 2025PV32 - Documenti ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) )

Avviso di Procedura comparativa n. 2025PV32

Array ( [field_titolo_frontend_all] => Array ( [#theme] => field [#weight] => -4 [#title] => Titolo frontend [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_titolo_frontend_all [#field_type] => text_long [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496117 [uid] => 26499 [title] => Avviso di Procedura comparativa n. 2025PV32 [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119744 [type] => allegato [language] => it [created] => 1752051493 [changed] => 1752051493 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752051493 [revision_uid] => 26499 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Avviso di Procedura comparativa n. 2025PV32 [format] => [safe_value] => Avviso di Procedura comparativa n. 2025PV32 ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141229 [uid] => 26499 [filename] => 4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [uri] => public://2025/4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [filemime] => application/pdf [filesize] => 332278 [status] => 1 [timestamp] => 1752051486 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 1 [current_revision_id] => 496117 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] => Avviso di Procedura comparativa n. 2025PV32 [format] => [safe_value] => Avviso di Procedura comparativa n. 2025PV32 ) ) [#formatter] => text_default [0] => Array ( [#markup] => Avviso di Procedura comparativa n. 2025PV32 ) ) [field_allegato_file] => Array ( [#theme] => field [#weight] => -3 [#title] => File [#access] => 1 [#label_display] => above [#view_mode] => teaser [#language] => und [#field_name] => field_allegato_file [#field_type] => file [#field_translatable] => 0 [#entity_type] => node [#bundle] => allegato [#object] => stdClass Object ( [vid] => 496117 [uid] => 26499 [title] => Avviso di Procedura comparativa n. 2025PV32 [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119744 [type] => allegato [language] => it [created] => 1752051493 [changed] => 1752051493 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752051493 [revision_uid] => 26499 [taxonomy_vocabulary_2] => Array ( ) [taxonomy_vocabulary_8] => Array ( ) [body] => Array ( ) [field_titolo_frontend_all] => Array ( [und] => Array ( [0] => Array ( [value] => Avviso di Procedura comparativa n. 2025PV32 [format] => [safe_value] => Avviso di Procedura comparativa n. 2025PV32 ) ) ) [field_allegato_file] => Array ( [und] => Array ( [0] => Array ( [fid] => 141229 [uid] => 26499 [filename] => 4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [uri] => public://2025/4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [filemime] => application/pdf [filesize] => 332278 [status] => 1 [timestamp] => 1752051486 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 1 [current_revision_id] => 496117 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [fid] => 141229 [uid] => 26499 [filename] => 4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [uri] => public://2025/4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [filemime] => application/pdf [filesize] => 332278 [status] => 1 [timestamp] => 1752051486 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) [#formatter] => file_default [0] => Array ( [#theme] => file_link [#file] => stdClass Object ( [fid] => 141229 [uid] => 26499 [filename] => 4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [uri] => public://2025/4. Avviso Procedura comparativa n. 2025PV32_sig.pdf [filemime] => application/pdf [filesize] => 332278 [status] => 1 [timestamp] => 1752051486 [type] => document [field_folder] => Array ( [und] => Array ( [0] => Array ( [tid] => 2664 ) ) ) [metadata] => Array ( ) [display] => 1 [description] => ) ) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Avviso di Procedura comparativa n. 2025PV32 [href] => node/119744 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Avviso di Procedura comparativa n. 2025PV32 ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) )

Procedura comparativa n. 2025PV32- Titoli

Array ( [body] => Array ( [#theme] => field [#weight] => 0 [#title] => Body [#access] => 1 [#label_display] => hidden [#view_mode] => teaser [#language] => und [#field_name] => body [#field_type] => text_with_summary [#field_translatable] => 0 [#entity_type] => node [#bundle] => tab [#object] => stdClass Object ( [vid] => 496116 [uid] => 26499 [title] => Procedura comparativa n. 2025PV32- Titoli [log] => [status] => 1 [comment] => 0 [promote] => 1 [sticky] => 0 [nid] => 119743 [type] => tab [language] => it [created] => 1752051345 [changed] => 1752051345 [tnid] => 0 [translate] => 0 [revision_timestamp] => 1752051345 [revision_uid] => 26499 [body] => Array ( [und] => Array ( [0] => Array ( [value] =>

La procedura comparativa è per sola valutazione dei titoli

Titoli valutabili (ulteriori informazioni sono specificate nell'avviso):

Esperienza maturata (max 30 punti): Anzianità di servizio nell’Area dei Collaboratori e nella categoria C di cui al precedente sistema di classificazione, o categorie superiori, anche a tempo determinato, per anno intero, compreso il periodo considerato per l’accesso. Concorrerà al raggiungimento del punteggio massimo previsto anche l’eventuale anzianità acquisita nelle qualifiche funzionali del sistema di classificazione antecedente al CCNL del 09.08.2000, purché riconosciute come equivalenti alla categoria C.

Titolo di studio (max 25 punti): Diploma di scuola secondaria di secondo grado, Laurea professionalizzante, titolo del primo ciclo degli studi universitari (Laurea triennale, Diploma Universitario ex. L. n. 341/1990, Diploma di scuola diretta ai fini speciali ex DPR n.162/1982), titolo del secondo ciclo degli studi universitari (Laurea Magistrale, Laurea Specialistica, Diploma di Laurea ante D.M. 509/1999), titolo del terzo ciclo degli studi universitari (Dottorato di ricerca o Diploma di specializzazione universitaria).

Verrà valutato un solo titolo di studio, quello di livello più alto.

Competenze professionali (max. 45 punti):

Incarichi di posizione organizzativa conferiti dal Direttore Generale negli ultimi 5 anni (max. 35 punti)

Percorsi formativi (max. 5 punti): Master universitario, Corso di perfezionamento, Abilitazione professionale, Certificazioni linguistiche in corso di validità, Certificazioni informatiche in corso di validità, Corsi di formazione Unipd svolti negli ultimi 5 anni

Valutazione della performance degli ultimi 5 anni (max 5 punti)

[summary] => [format] => 2 [safe_value] =>

La procedura comparativa è per sola valutazione dei titoli

Titoli valutabili (ulteriori informazioni sono specificate nell'avviso):

Esperienza maturata (max 30 punti): Anzianità di servizio nell’Area dei Collaboratori e nella categoria C di cui al precedente sistema di classificazione, o categorie superiori, anche a tempo determinato, per anno intero, compreso il periodo considerato per l’accesso. Concorrerà al raggiungimento del punteggio massimo previsto anche l’eventuale anzianità acquisita nelle qualifiche funzionali del sistema di classificazione antecedente al CCNL del 09.08.2000, purché riconosciute come equivalenti alla categoria C.

Titolo di studio (max 25 punti): Diploma di scuola secondaria di secondo grado, Laurea professionalizzante, titolo del primo ciclo degli studi universitari (Laurea triennale, Diploma Universitario ex. L. n. 341/1990, Diploma di scuola diretta ai fini speciali ex DPR n.162/1982), titolo del secondo ciclo degli studi universitari (Laurea Magistrale, Laurea Specialistica, Diploma di Laurea ante D.M. 509/1999), titolo del terzo ciclo degli studi universitari (Dottorato di ricerca o Diploma di specializzazione universitaria).

Verrà valutato un solo titolo di studio, quello di livello più alto.

Competenze professionali (max. 45 punti):

Incarichi di posizione organizzativa conferiti dal Direttore Generale negli ultimi 5 anni (max. 35 punti)

Percorsi formativi (max. 5 punti): Master universitario, Corso di perfezionamento, Abilitazione professionale, Certificazioni linguistiche in corso di validità, Certificazioni informatiche in corso di validità, Corsi di formazione Unipd svolti negli ultimi 5 anni

Valutazione della performance degli ultimi 5 anni (max 5 punti)

[safe_summary] => ) ) ) [field_foglia_complessa_allegato] => Array ( ) [field_tabella] => Array ( [und] => Array ( [0] => Array ( [value] => [format] => 2 ) ) ) [field_titolo_frontend] => Array ( [und] => Array ( [0] => Array ( [value] => Titoli [format] => [safe_value] => Titoli ) ) ) [name] => rossella.vezzosi [picture] => 0 [data] => b:0; [num_revisions] => 1 [current_revision_id] => 496116 [is_current] => 1 [is_pending] => [revision_moderation] => [entity_view_prepared] => 1 ) [#items] => Array ( [0] => Array ( [value] =>

La procedura comparativa è per sola valutazione dei titoli

Titoli valutabili (ulteriori informazioni sono specificate nell'avviso):

Esperienza maturata (max 30 punti): Anzianità di servizio nell’Area dei Collaboratori e nella categoria C di cui al precedente sistema di classificazione, o categorie superiori, anche a tempo determinato, per anno intero, compreso il periodo considerato per l’accesso. Concorrerà al raggiungimento del punteggio massimo previsto anche l’eventuale anzianità acquisita nelle qualifiche funzionali del sistema di classificazione antecedente al CCNL del 09.08.2000, purché riconosciute come equivalenti alla categoria C.

Titolo di studio (max 25 punti): Diploma di scuola secondaria di secondo grado, Laurea professionalizzante, titolo del primo ciclo degli studi universitari (Laurea triennale, Diploma Universitario ex. L. n. 341/1990, Diploma di scuola diretta ai fini speciali ex DPR n.162/1982), titolo del secondo ciclo degli studi universitari (Laurea Magistrale, Laurea Specialistica, Diploma di Laurea ante D.M. 509/1999), titolo del terzo ciclo degli studi universitari (Dottorato di ricerca o Diploma di specializzazione universitaria).

Verrà valutato un solo titolo di studio, quello di livello più alto.

Competenze professionali (max. 45 punti):

Incarichi di posizione organizzativa conferiti dal Direttore Generale negli ultimi 5 anni (max. 35 punti)

Percorsi formativi (max. 5 punti): Master universitario, Corso di perfezionamento, Abilitazione professionale, Certificazioni linguistiche in corso di validità, Certificazioni informatiche in corso di validità, Corsi di formazione Unipd svolti negli ultimi 5 anni

Valutazione della performance degli ultimi 5 anni (max 5 punti)

[summary] => [format] => 2 [safe_value] =>

La procedura comparativa è per sola valutazione dei titoli

Titoli valutabili (ulteriori informazioni sono specificate nell'avviso):

Esperienza maturata (max 30 punti): Anzianità di servizio nell’Area dei Collaboratori e nella categoria C di cui al precedente sistema di classificazione, o categorie superiori, anche a tempo determinato, per anno intero, compreso il periodo considerato per l’accesso. Concorrerà al raggiungimento del punteggio massimo previsto anche l’eventuale anzianità acquisita nelle qualifiche funzionali del sistema di classificazione antecedente al CCNL del 09.08.2000, purché riconosciute come equivalenti alla categoria C.

Titolo di studio (max 25 punti): Diploma di scuola secondaria di secondo grado, Laurea professionalizzante, titolo del primo ciclo degli studi universitari (Laurea triennale, Diploma Universitario ex. L. n. 341/1990, Diploma di scuola diretta ai fini speciali ex DPR n.162/1982), titolo del secondo ciclo degli studi universitari (Laurea Magistrale, Laurea Specialistica, Diploma di Laurea ante D.M. 509/1999), titolo del terzo ciclo degli studi universitari (Dottorato di ricerca o Diploma di specializzazione universitaria).

Verrà valutato un solo titolo di studio, quello di livello più alto.

Competenze professionali (max. 45 punti):

Incarichi di posizione organizzativa conferiti dal Direttore Generale negli ultimi 5 anni (max. 35 punti)

Percorsi formativi (max. 5 punti): Master universitario, Corso di perfezionamento, Abilitazione professionale, Certificazioni linguistiche in corso di validità, Certificazioni informatiche in corso di validità, Corsi di formazione Unipd svolti negli ultimi 5 anni

Valutazione della performance degli ultimi 5 anni (max 5 punti)

[safe_summary] => ) ) [#formatter] => text_summary_or_trimmed [0] => Array ( [#markup] =>

La procedura comparativa è per sola valutazione dei titoli

Titoli valutabili (ulteriori informazioni sono specificate nell'avviso):

) ) [links] => Array ( [#theme] => links__node [#pre_render] => Array ( [0] => drupal_pre_render_links ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) [node] => Array ( [#theme] => links__node__node [#links] => Array ( [node-readmore] => Array ( [title] => Read more about Procedura comparativa n. 2025PV32- Titoli [href] => node/119743 [html] => 1 [attributes] => Array ( [rel] => tag [title] => Procedura comparativa n. 2025PV32- Titoli ) ) ) [#attributes] => Array ( [class] => Array ( [0] => links [1] => inline ) ) ) ) )

Pagine