Qu’est-ce qu’un cocon sémantique et en quoi impact-il mes textes ?

décembre, 29, 2022
Sylvain

Depuis quelques années, une nouvelle technique de référencement SEO fait l’unanimité auprès des professionnels du web : le cocon sémantique. Créé par Laurent Bourelly, celui-ci s’avère redoutable à bien des égards, que ce soit pour créer une structure interne efficace ou pour optimiser le référencement naturel des pages web. Relativement simple d’accès, bien qu’elle nécessite un minimum de formation, la technique du cocon sémantique peut apporter toute la visibilité nécessaire à votre projet. On fait le point. Qu’est-ce qu’un cocon sémantique ? Le cocon sémantique est une structure SEO, qui organise le maillage interne des pages web d’un site internet. Apparentée à […]

Read More

Sujets de stage

décembre, 21, 2011
Sylvain

Je recherche deux stagiaires, en sortie de M2 Recherche, informatique théorique ou mathématiques, pour travailler sur : Stage 1 : Q-learning et processus de décision Markoviens. Il est très courant de modéliser le comportement d’un système dans un contexte « adversarial » : on va regarder comment le système évolue face à un adversaire. On retrouve cette idée en économie des ressources (meilleure stratégie de pêche en mer avec la météo comme adversaire), en économie (meilleure stratégie de placement en bourse avec le marché comme adversaire), sur le web (spammeurs contre moteurs de recherche), dans les jeux, etc. Les processus de décision […]

Read More

Offre de stage : Intégration de la bibliothèque RUKIA au logiciel SPIN

septembre, 26, 2011
Sylvain

Nous cherchons un stagiaire, voici le texte de l’offre : Réalisation d’un outil de vérification probabiliste de modèles. Intégration de la bibliothèque RUKIA au logiciel SPIN Le logiciel SPIN est un “vérificateur de modèles”. Étant donné une description de système par des états et des transitions, le modèle, SPIN permet de vérifier des propriétés de ce modèle par un parcours exhaustif (voir par exemple http://spinroot.com/spin/whatispin.html ). La bibliothèque RUKIA permet l’exploration aléatoire de graphes en tirant des chemins selon une distribution uniforme (voir http://rukia.lri.fr/en/index.html ). Un modèle étant un cas particulier de graphe, le sujet de ce stage est d’interfacer […]

Read More

Metric 2011 : séminaires à l’IHP

janvier, 5, 2011
Sylvain

Voici un mail reçu d’un collègue pour annoncer ce qui parait être un cycle de séminaires des plus intéressants. Un petit mail pour vous informer qu’à partir du mercredi 5 janvier jusqu’au 31 mars 2011 se déroulera un trimestre mathématiques et informatique à l’Institut Henri Poincaré sur les questions de complexité algorithmique, inapproximabilité, géométrie, et théorie des groupes. Ce trimestre réunira une bonne partie des poids lourds du domaines tant en informatique qu’en mathématiques avec de nombreux cours sur l’ensemble de la durée du trimestre. Deux points d’orgue ponctueront ce trimestre: – un premier colloque sur les plongements de métriques, […]

Read More

Un papier de plus…

décembre, 14, 2010
Sylvain

Et oui, l’article suivant : Uniform Monte-Carlo Model-Checking. Johan Oudinet, Alain Denise, Marie-Claude Gaudel, Richard Lassaigne and Sylvain Peyronnet. a été accepté pour publication à FASE 2011 (le site web de la conférence est aussi accessible par là). On y présente une méthode pour la génération uniforme de lassos dans les graphes de flots réductibles. Cela vous fait une belle jambe n’est ce pas ? En fait les lassos sont les structures qui permettent de déterminer la validité de certaines formules de la logique (Linear Temporal Logic). En les échantillonnant uniformément, on peut chercher des comportements spécifiques d’un système tout […]

Read More

http://cstheory.stackexchange.com/

novembre, 16, 2010
Sylvain

On connait tous les sites de questions/réponses standards : le fameux CCM, Yahoo! answers et bien d’autres encore. En revanche je suis certain que vous connaissez beaucoup moins le site de questions/réponses collaboratif (et en anglais) dont la thématique est celle de l’informatique théorique au niveau recherche, j’ai nommé http://cstheory.stackexchange.com/. Sur ce site, vous trouverez des questions du type :Pouvez vous donner des exemples d’algorithmes d’apprentissage qui apprennent des propriétés statistiques des données et non pas des observations individuelles sur ces données ? Quelles sont les bornes inférieures pour le problème de la multiplication de matrices dans un modèle de […]

Read More

Méthodes de clustering

octobre, 14, 2010
Sylvain

Voici un post très technique pour expliciter rapidement les techniques de clustering que je mentionne de temps en temps dans d’autres billets. C’est pour le lecteur averti… L’algorithme de Girvan et Newman L’algorithme de Girvan et Newman est basée sur la centralité d’intermédiarité (edge-betweeness-centrality). Cette approche est une extension des méthodes basées sur la notion de “node-betweenness centrality”. Cette notion est apparue pour la première fois dans le champ des sciences sociales pour déterminer le rôle de chaque acteur (nœud) dans un réseau social (graphe), le but étant alors de détecter des communautés partageant un intérêt commun. Cette mesure d’intérêt […]

Read More

Marche aléatoire et détection de spam…

octobre, 12, 2010
Sylvain

Aujourd’hui je vais vous parler d’un résultat que nous avons obtenu récemment. Nous ? je parle ici de mon chanceux thésard (mais oui, chanceux) Thomas Largillier et moi même. Je vous vois venir, vous pensez que je suis un peu vaniteux de la croire chanceux car il a un super directeur de thèse, mais vous vous méprenez, il est chanceux car il soutient très prochainement 😉 Bref, je vais vous parler de l’article suivant : Using patterns in the behavior of the random surfer to detect Webspam beneficiaries. Thomas Largillier and Sylvain Peyronnet. Auparavant, on s’était intéressé au déclassement du […]

Read More

Latent Dirichlet allocation

septembre, 13, 2010
Sylvain

C’est l’ami Tiger qui me l’a  demandé sur Twitter et la foule (enfin une petite foule, presque une « foulette ») en délire en a rajouté, donc voici l’article promis sur la LDA (Latent Dirichlet Allocation). Le billet va être un peu long, je vous conseille donc de vous installer confortablement. J’ai a priori gommé tous les détails techniques et j’ai essayé d’enlever tout le jargon mathématique pour juste garder l’intuition, mais il ne faut pas hésiter à me demander des précisions que j’intégrerais au texte. Dans ce billet je vais aborder deux aspects complémentaires des techniques statistiques de modélisation des documents […]

Read More

P != NP selon Vinay Deolalikar

août, 9, 2010
Sylvain

Le gros buzz du moment chez les spécialistes de complexité structurelle, chez les algorithmiciens, chez les théoriciens, mais aussi chez tout ceux intéressés par les aspects un peu théorique de l’informatique, c’est l’annonce par Vinay Deolalikar d’une preuve du fait que . C’est une annonce, la preuve (longue de plus de 100 pages) est en cours de vérification, et ce n’est pas la première fois qu’une telle annonce est faite à tort, cependant il s’agit cette fois ci d’un chercheur sérieux dans le domaine, donc les espoirs les plus fous sont permis. Que nous dit Vinay Deolalikar dans un mail […]

Read More
Picture: courtesy of Abby Blank