IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

ASP.NET : monitorer vos applications avec ELK

Image non disponible

De nos jours, les logs et traces font partie d'une étape importante dans le développement d'une application. La nécessité de détecter des anomalies et de réagir rapidement requiert la mise en place d'une solution de monitoring robuste, capable de stocker, d'analyser et de lire ces logs. Aujourd'hui, nous allons voir comment mettre en place une plateforme de logging basée sur la stack ELK pour monitorer nos applications ASP.NET.

Commentez Donner une note à l´article (5)

Article lu   fois.

L'auteur

Liens sociaux

Viadeo Twitter Facebook Share on Google+   

I. ELK : kézako

ELK est l'acronyme des trois produits phares de la société Elastic.

  • Elasticsearch servira de support de stockage. Il est reconnu pour sa capacité à ingérer des volumes de données conséquents.
  • Logstash est la brique centrale de notre solution. On peut la voir comme un routeur de messages. Ici, elle s'occupera de récupérer les logs, de les normaliser pour ensuite les déverser dans Elasticsearch.
  • Kibana est la dernière brique de la solution. Elle permet de visualiser les logs collectés,
    de créer des visualisations pour ensuite les agréger dans des dashboards.

La combinaison de ces trois produits va nous permettre de mettre en place une solution de logging performante.

Le code source et les configurations associées à la démo sont disponibles à l'adresse suivante : Github Soat.

II. Installation de l'environnement

La première étape avant de commencer à installer ELK est l'installation du JDK.

Une fois celui-ci installé, ajoutez une variable d'environnement JAVA_HOME pointant sur l'installation du JDK.

Image non disponible

Nous pouvons maintenant commencer l'installation d'ELK !
Récupérez les install sur les URL suivantes : Elasticsearch, Logstash et Kibana.

Commencez par installer Elasticsearch : pour cela, exécutez service.bat. Un nouveau service va être installé et sera disponible dans les services Windows (services.msc).

Pour installer Logstash et Kibana, nous allons utiliser un logiciel nommé NSSM, qui permet d'exécuter n'importe quel exécutable comme un service Windows.

Rendez-vous sur NSSM pour récupérer le logiciel, puis ajoutez le dossier dans la variable PATH

Pour installer Kibana, lancez la commande suivante :

 
Sélectionnez
nssm install kibana

Sur la fenêtre qui apparaît, faites pointer le chemin sur le fichier kibana.bat

Image non disponible

Pour logstash, il faut créer deux fichiers dans le répertoire bin après avoir extrait le zip :

  • logstash.config qui contiendra la config de logstash ;
  • service.bat qui sera la commande exécutée lors du démarrage du service Windows. Ce fichier contient la commande suivante :
 
Sélectionnez
1.
logstash.bat agent -f logstash.config

On spécifie seulement à logstash de charger le fichier de config que l'on vient de créer.

Une fois les installations terminées, nous pouvons passer à la configuration de logstash.

III. Configuration

Passons maintenant à la configuration de logstash. Un fichier de configuration logstash contient trois types de sections :

  • input : cette section permet de configurer comment logstash va récupérer les logs. Il existe une multitude de connecteurs déjà disponibles avec l'installation de logstash, qui répondra sûrement à votre demande ;
  • filter : cette section permet d'agir sur les logs récupérés en input. On va pouvoir, par exemple, parser le log pour ajouter un ou plusieurs champs, ou encore supprimer certains logs selon une condition, ajouter des données géographiques selon l'ip contenue dans un champ etc. C'est assez puissant et tout comme les inputs, il existe déjà des plugins disponibles !
  • output : la dernière partie, comme vous pouvez l'imaginer, permet de configurer la sortie. C'est-à-dire l'endroit où l'on souhaite déverser nos logs que logstash aura reçus en entrée puis modifier selon le besoin. En sortie de logstash, on pourrait par exemple, produire un fichier au format CSV, appeler une URL en HTTP, écrire un message sur IRC ou HipChat. Bref, il existe différentes solutions pour stocker nos logs. Pour voir un aperçu des plugins disponibles : https://www.elastic.co/guide/en/logstash/current/input-plugins.html.

Dans notre application ASP.NET, en plus de vouloir stocker les logs dans Elasticsearch, nous allons également séparer les différents types de logs dans des index différents. Sur notre site, nous allons avoir :

  • des logs techniques, utiles pour faire remonter les exceptions et utilisés par l'équipe support en cas d'anomalie ;
  • des logs de performances, pour monitorer et détecter des latences anormales ;
  • des logs business, pour créer des dashboards sur l'usage des fonctionnalités de notre site.

L'intérêt de séparer les types de logs dans des index différents va nous permettre d'appliquer une stratégie différente sur la rétention des données et donc gagner en performance lors des recherches dans kibana.
On pourrait ainsi appliquer la stratégie suivante :

  • les logs techniques pourraient être conservés un mois ;
  • les logs de performance, 15 jours ;
  • les logs business, un an, voire plus.

Nous allons définir une configuration pour l'input, qui sera un listener UDP, un filter, qui analysera la chaîne du useragent, et une configuration pour l'output qui déversera les logs dans Elasticsearch, selon le type de log (technical, performance, business).

Le fichier logstash.config ressemble donc à ceci :

 
Sélectionnez
input {
    udp {
        port => 12300 //port du listener
        codec => json //le format des logs que l'on reçoit
        type => "logs" 
        add_field => ["env", "DEV"] //on ajoute un champ 'env' à tous nos logs 
    }
}
filter {
  useragent {
    source => "[properties][s-useragent]" //proprieté contenant la chaîne du useragent (ce champs sera fourni par l'application ASP.NET)
    target => "browserInfo" // propriété ou sera stocké l'extraction des informations concernant le navigateur
  }
}
output {
    elasticsearch {
        hosts => ["192.168.1.64:9200"] // IP:PORT du elasticsearch (9200 port par défaut)
        index => "%{[properties][type]}-%{+YYYY.MM.dd}" //on spécifie l'index de notre log. On concatene le type du log + la date
        document_type => "%{[properties][type]}" //on type le log
        workers => 1  
    }
}

Une fois terminé, vous pouvez démarrer les trois services. Si tout fonctionne, vous devriez pouvoir accéder à Elasticsearch via http://localhost:9200 et à kibana via http://localhost:5601.

Nous pouvons maintenant passer à la dernière partie, l'intégration avec notre application ASP.NET !

IV. Intégration dans notre application

La partie logging coté ASP.NET sera gérée via log4net qui est une librairie assez répandue dans le monde .NET.

Au niveau des librairies, nous allons donc avoir besoin de log4net et log4net.Ext.Json, afin de pouvoir sérialiser le log dans un format JSON pour le transmettre à logstash. La sérialisation n'est pas obligatoire, car on pourrait très bien avoir un filtre coté logstash qui analyse le log.
Pour l'installation des deux packages, il suffit d'ouvrir sa console nuget et d'exécuter les deux commandes suivantes :

 
Sélectionnez
1.
2.
Install-Package log4net
Install-Package log4net.Ext.Json

Une fois installé, il ne manque plus qu'à configurer log4net. Rappelez-vous, nous avons configuré logstash avec un listener UDP. On a donc juste besoin de configurer une appender UDP log4net !

La configuration log4net est la suivante :

 
Sélectionnez
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
<log4net>
    <appender name="DebugAppender" type="log4net.Appender.TraceAppender">
        <layout type="log4net.Layout.SerializedLayout, log4net.Ext.Json">
            <default />
            <member value="properties" />  
        </layout>
    </appender>
    <appender name="UdpAppender" type="log4net.Appender.UdpAppender">
        <param name="RemoteAddress" value="192.168.1.64" /> //on fait pointer vers l'ip ou est installer logstash
        <param name="RemotePort" value="12300" /> //on spécifie le port que l'on a mis dans la config logstash
        <layout type="log4net.Layout.SerializedLayout, log4net.Ext.Json">
            <default />
            <member value="properties" />  
        </layout>
    </appender>
    <root>
        <level value="INFO" />
        <appender-ref ref="DebugAppender" />
        <appender-ref ref="UdpAppender" />
    </root>
</log4net>

Il ne reste plus qu'à ajouter des logs dans notre application. On peut se faire une classe d'extension pour logger dans le bon index. Rappelez-vous, dans la config logstash, nous avons précisé que l'index se basait sur la propriété : properties["type"] !

 
Sélectionnez
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
public static class LogExtensions
{
    private static void LogEvent(this ILog log, string message, IDictionary<string, object> properties, Level level, Exception ex = null)
    {
        var logEvent = new LoggingEvent(log.GetType(), log.Logger.Repository, log.Logger.Name, level, message, ex);
        foreach (var property in properties)
        {
            string key = property.Key;
            logEvent.Properties[key] = property.Value;
        }
        log.Logger.Log(logEvent);
    }
 
    public static void LogTechnical(this ILog log, string message, IDictionary<string, object> properties, Level level, Exception ex = null)
    {
        properties["type"] = "technical";
        log.LogEvent(message, properties, level, ex);
    }
 
    public static void LogBusiness(this ILog log, string message, IDictionary<string, object> properties)
    {
        var level = Level.Info;
        properties["type"] = "business";
        log.LogEvent(message, properties, level);
    }
 
    public static void LogPerf(this ILog log, long duration, IDictionary<string, object> properties)
    {
        var level = Level.Info;
        if (duration > 1000)
            level = Level.Warn;
        properties["duration"] = duration;
        properties["type"] = "performance";
        log.LogEvent($"Action took {duration} ms to be executed", properties, level);
    }
}

V. Création du dashboard

L'installation et l'intégration sont terminées, nous pouvons passer à la partie sympathique : la création de nos dashboards, rendez-vous sur Kibana !

V-A. Ajout des indices

La première chose à effectuer, c'est de rajouter les sources de données.
Il faut se rendre dans les settings puis indices. Ensuite on spécifie le pattern de l'index, ici ça sera technical-*, business-* et performance-*, et le champ contenant la date qui sera utilisée par kibana pour filtrer dans le temps.

Image non disponible

V-B. Création des recherches

La création d'un dashboard passe par trois étapes :

  • une recherche : qui permet de filtrer et de sélectionner un scope de logs ;
  • une visualisation : qui affichera sous forme de graphe/tableau/compteur la représentation de la recherche sélectionnée ;
  • un dashboard : qui agrège un ensemble de visualisation sur un même écran.

Dans notre exemple, nous allons créer un dashboard pour visualiser le temps moyen de chargement des pages selon le navigateur.

Nous allons récupérer tous les logs de performances qui ont la propriété browser existante.

Pour savoir si une propriété existe sur un document, on peut utiliser la méthode exists:"property_name".

Dans notre cas, la recherche devient :

 
Sélectionnez
_exists_:"browserInfo.name"

On sauvegarde la recherche et on peut passer à l'étape 2, les visualisations.

Image non disponible

V-C. Création des visualisations

À partir de la recherche sauvegardée, nous allons construire deux graphes :

  • un pour représenter la répartition des navigateurs ;
  • un autre pour visualiser le temps moyen de chargement par URL.

Allez dans l'onglet Visualize, choisissez Pie Chart puis From a save search et sélectionnez la recherche faite précédemment.

Enfin, configurez le graphe de façon à le séparer en fonction du nom du navigateur.

Image non disponible

Une fois fini, n'oubliez pas de sauvegarder le graphe.

Refaites un nouveau graphe, mais cette fois-ci, il s'agira d'un Area chart. Il nous permettra de visualiser facilement le temps moyen de chargement des pages par navigateur.

Image non disponible

Une fois terminé, nous allons pouvoir passer à la dernière étape en allant sur l'onglet dashboard !

V-D. Création du dashboard

Cette étape est la plus simple, car il suffit juste de sélectionner les graphes que l'on a créés juste avant. Une fois ajoutés, vous devriez arriver au résultat suivant :

Image non disponible

Grâce au dashboard, nous pouvons remarquer que le temps moyen de chargement de la page Performance est anormalement long sur Chrome et Edge (~500 ms), alors que sur les autres navigateurs nous sommes plus vers ~50 ms.
Si nous regardons le code du projet, on peut remarquer que j'ai introduit de la latence volontairement pour Chrome (et qu'Edge est également reconnu comme un « Chrome »).

Cet article donne une introduction sur l'intégration de la stack ELK avec une application ASP.NET pour rendre le débogage et le monitoring plus sympathique. Vous n'avez plus d'excuse pour ne pas l'intégrer dans votre projet ! Évidemment, la partie logging représente la première étape importante dans le monitoring de vos applications. On peut imaginer des scénarios plus complexes en ajoutant une brique pour gérer la rétention des logs ou encore la partie alerting qui permettra de rajouter de l'intelligence dans vos logs afin de pouvoir agir avant que les problèmes ne surviennent ! Nous aborderons ces deux sujets lors d'un prochain article afin de devenir une légende des logs !

VI. Remerciements

Ce tutoriel a été publié avec l'aimable autorisation de la société Soat.

Nous remercions Laethy pour la gabarisation et Malick SECK pour la relecture orthographique.

Vous avez aimé ce tutoriel ? Alors partagez-le en cliquant sur les boutons suivants : Viadeo Twitter Facebook Share on Google+   

Les sources présentées sur cette page sont libres de droits et vous pouvez les utiliser à votre convenance. Par contre, la page de présentation constitue une œuvre intellectuelle protégée par les droits d'auteur. Copyright © 2016 Julien LO PRESTI. Aucune reproduction, même partielle, ne peut être faite de ce site ni de l'ensemble de son contenu : textes, documents, images, etc. sans l'autorisation expresse de l'auteur. Sinon vous encourez selon la loi jusqu'à trois ans de prison et jusqu'à 300 000 € de dommages et intérêts.