UQAM - Université du Québec à Montréal
Archive de publications électroniques
UQAM ›  Archive de publications électroniques ›  Méthodes et logiciel pour le traitement efficace des données de criblage à haut débit

Méthodes et logiciel pour le traitement efficace des données de criblage à haut débit

Zentilli, Pablo (2007). « Méthodes et logiciel pour le traitement efficace des données de criblage à haut débit » Mémoire. Montréal (Québec, Canada), Université du Québec à Montréal, Maîtrise en informatique.

Fichier(s) associé(s) à ce document :

[img]
Prévisualisation
PDF
8Mb

Résumé

Dans ce mémoire, nous abordons le problème de la correction d'erreurs systématiques et de la recherche des composés prometteurs (i.e. «hits») dans les procédures de criblage à haut débit (HTS). Nous introduisons une nouvelle approche pour la correction des erreurs systématiques dans les procédures HTS et la comparons à quelques méthodes couramment utilisées. La nouvelle méthode, appelée «well correction» ou correction par puits, procède par une analyse des erreurs systématiques localisées au niveau des puits, à travers toute la procédure de criblage. Cette méthode permet une amélioration des résultats obtenus lors de la sélection des «hits», par des méthodes utilisant un seuil prédéfini. La correction par puits à montré des résultats supérieurs aux méthodes suggérées dans la littérature telles que: correction par soustraction de l'arrière-plan («background correction» : Kevorkov et Makarenkov, 2005a, 2005b); «median-polish» et «B score» (Brideau et al., 2003; Malo et al., 2006). Nous avons également comparé trois méthodes de recherche des «hits» utilisant des approches de groupement (i.e. «clustering»): k-mean; somme des distances inter-cluster moyennes (SASD) et distance moyenne entre clusters (AICD). Ces méthodes proposent des algorithmes différents pour mesurer la distance entre les données provenant du criblage. Les méthodes de groupement utilisant k-means et SASD ont montré des résultats intéressants, mais aucune des méthodes étudiées n'a montré des performances pouvant justifier son utilisation dans tous les cas de figure. Un logiciel, «HTS Corrector», a été développé dans le cadre de ce travail. Il intègre toutes les méthodes étudiées dans ce mémoire. D'autres fonctionnalités auxiliaires, pouvant aider le praticien dans l'analyse des résultats provenant d'une procédure HTS, ont aussi été intégrées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Criblage à haut débit, High-throughput Screening, Erreurs systématiques, Correction de données, Méthodes de groupement, Recherche de hits, Normalisation de données.

Type de document : Mémoire accepté
Directeur de thèse : Makarenkov, Vladimir
Évaluation par des pairs : Oui
État du document : Non publié
Informations complémentaires : Le mémoire a été numérisé tel que transmis par l'auteur.
Mots-clés : HTS Corrector, Criblage à haut débit (Développement des médicaments), Analyse des données
Unité d'appartenance : Faculté des sciences > Département d'informatique
Code ID : 869
Déposé par : RB Service des bibliothèques
Déposé le : 25 juill. 2008
Dernière modification : 02 déc. 2010 11:33

Modifier les métadonnées de ce document.

Voir les statistiques sur cinq ans...