qsos-general
[Top][All Lists]
Advanced

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[QSOS-general] new user / questions


From: thomas
Subject: [QSOS-general] new user / questions
Date: Mon, 27 Oct 2008 17:32:23 +0100
User-agent: Thunderbird 1.5.0.12 (X11/20071219)

Hi,
Congratulation for the QSOS methodology and the tools. I would like to use the method to evaluate genome browsers (software used by biologists) and I have a few questions, can you please help me to clarify those points if possible :

- can a user suggest new criteria/tools or comment an evaluation ? if yes, how to achieve this ?

- Is it possible to have multiple evaluations of one tool and take the average for scoring rather than having a single reference evaluation ?

- What is the algorithm that calculate the score based on the evaluation and the ponderation ? How are the non scored criteria dealt with ?

- Does it matter if scored criteria are at different level in the evaluation tree ? how does it impact the scoring if a scored criteria is at level 6 or 7 ?

- we wish to allow users to list the tools accordingly to their need. I read in the manual that o3s had 2 selection modes : srtict and permissive. How can I activate one mode or the other ? Is there any guideline in the generated web page to help user during the ponderation step ?

- Is it possible to normalise non scored criteria (date, restricted list, ...) and to let the user request on non scored criteria during the ponderation step ? For example a non scored criteria for my evaluation would be "1st release date" and the user could query tools released after the year of their choice.

Thank you for your help,
Thomas

---------------------------------------------------------------------------------------------

Bonjour,
Félicitation pour votre méthode d'évaluation et vos outils qui sont très intéressant. Je souhaite utiliser la méthode QSOS pour un projet d'évaluation de genome browser (c'est un type de logiciel utilisé par des biologistes). Je me pose quelques questions, merci de m'éclairer si possible :

- comment un utilisateur peut-il suggérer des critères/outils ou commenter une évaluation ?

- est-il possible d'avoir plusieurs évaluations concurrentes d'un même outil et de faire une moyenne plutôt que d'avoir une seule évaluation de référence ?

- Quel est l'algorithme qui permet de calculer un score en fonction de l'évaluation et la pondération ? Comment sont traités les critères non notés ?

- Cela a t-il une influence si les critères notés sont a des niveaux d'arborescence différent dans l'arbre d'évaluation ? Que se passe t'il si un critère notés se retrouve a un niveau d'arborescence 6 ou 7 ?

- nous souhaitons offrir la possibilité à l'utilisateur de lister les outils correspondant à ses besoins. J'ai lu dans la doc que o3s avait 2 modes de sélections : stricte et souple. Comment activer l'un ou l'autre mode ? Y a-t-il des consignes sur la page générée par o3s pour guider l'utilisateur lors de la pondération (critère critique ou optionnel)?

- a propos des critères non notés, est-il possible de normalisé le champ (date, liste prédéfinie,...) et de faire une requête sur les critères non noté lors de la phase de pondération de l'utilisateur ? Par exemple un critère non noté de mon évaluation serait "1st release date" et l'utilisateur pourrait lister les outils sortient uniquement après telle année.

Merci de votre aide,
Thomas





reply via email to

[Prev in Thread] Current Thread [Next in Thread]