@InProceedings{2023_bourbia1142,
	author = "Salima Bourbia and Karine Ayoub and Chetouani Aladine and El Hassouni Mohammed and Jridi Maher",
	title = "Évaluation de la qualité de nuages de points 3D sans référence en utilisant un transformer et la saillance visuelle",
	booktitle = "29° Colloque sur le traitement du signal et des images",
	year = "2023",
	publisher = "GRETSI - Groupe de Recherche en Traitement du Signal et des Images",
	number = "2023-1142",
	pages = "p. 301-304",
	month = "Aout # 6 - Sept # 9",
	address = "Grenoble",
	doi = "",
	pdf = "2023_bourbia1142.pdf",
	abstract = "Dans ce travail, nous proposons une approche basée sur l'apprentissage profond qui bénéficie de l'avantage du mécanisme d'auto-attention dans les Transformers pour prédire avec précision le score de qualité perceptuelle des nuages de points (3DPC) dégradés. De plus, nous avons introduit l'utilisation de cartes de saillance pour refléter le comportement du système visuel humain qui est attiré par certaines régions spécifiques par rapport à d'autres lors de l'évaluation. Pour ce faire, en utilisant une caméra virtuelle avec des angles pré-définis par rapport à l'objet, chaque 3DPC est projeté sous différentes vues 2D. Ensuite, nous pondérons les images projetées obtenues avec leurs cartes de saillance correspondantes. Après cela, nous éliminons la majorité des informations de fond en extrayant des patchs saillants. Ces derniers sont envoyés en entrée d'un modèle Vision Transformer (ViT) afin d'extraire les informations contextuelles globales et de prédire les scores de qualité des patchs. Enfin, nous calculons la moyenne des scores de tous les patchs saillants pour obtenir la qualité finale du 3DPC. Les performances de notre modèle ont été évaluées sur  deux bases de données de l'évaluation de la qualité de nuages de points 3D : ICIP2020 et SJTU. Les résultats expérimentaux montrent que notre modèle atteint de bonnes performances par rapport aux méthodes de l'état de l'art..pdf",
}
