Social Icons

Pages

dimanche 16 novembre 2008

Génération de code et off shore

La délocalisation touche maintenant depuis quelques années les métiers de l’informatique et plus spécifiquement les métiers du développement. Il n’est donc peut-être pas inutile de regarder des expériences plus anciennes, notamment dans l’industrie, pour tenter de trouver des enseignements.

Avant de se lancer dans cette démarche, il faut cependant bien garder en tête la nature des activités de développement. Ces dernières, même si l’on parle communément de production de code, restent des activités d’ingénierie et non des activités de production. La transposition des expériences de délocalisation qui concernent essentiellement des activités de production est donc à mener avec circonspection.
D’une façon un peu caricaturale, on peut dire que dans l’industrie le niveau d’investissement est inversement proportionnel au coût de la main d’œuvre. La délocalisation permet donc de bénéficier de main d’œuvre moins chère et donc de mobiliser moins de capitaux pour produire au même coût que dans d’autres pays où la main d’œuvre est plus coûteuse. D’ailleurs, le niveau d’automatisation est calibré sur des hypothèses de coûts de main d’œuvre : si le succès d’un pays provoque un renchérissement de la main d’œuvre, les hypothèses de départ peuvent ne plus être vérifiées entraînant une nouvelle délocalisation vers des pays moins chers. Les pays de l’Europe de l’est ont été victimes de ce syndrome dans les années 90.

Pour revenir maintenant au monde du développement, la même analyse peut être menée : à productivité égale, même en tenant compte des coûts de frottements liés aux distances et aux différences de culture, la délocalisation est plus économique. Cependant, en regardant bien cette proposition, on peut travailler sur son hypothèse fondatrice qui tend à considérer la productivité comme égale entre des développements « on shore » et des développements « off shore ».
On retrouve ici la notion, abordée plus haut, de niveau d’investissement ou niveau d’outillage : comme pour une usine on peut plus ou moins industrialiser la production de code et améliorer la compétitivité des pôles de développement « on shore » par des outils de génération de code.
Le parallèle avec l’industrie n’est cependant pas possible complètement : la lourdeur des investissements nécessaires à l’automatisation d’une partie du développement d’une application n’a rien de commun avec les coûts des robots d’une chaîne de montage ! En revanche, comme dans l’industrie, cette apparition de l’automatisation a un impact sur les ressources. Moins de ressources plus qualifiées seront nécessaires pour mener à bien un projet.

L’utilisation des techniques de génération de code est donc une réponse à la menace que fait peser « l’off-shoring » sur les développeurs occidentaux. Ces techniques ne doivent pas être considérées comme des menaces sur le rôle du développeur mais comme une opportunité à la fois pour s’abstraire des tâches les plus rébarbatives du développement et également pour améliorer sa compétitivité face à des solutions off-shore. Libérée d’une partie des développements, l’équipe projet peut alors se concentrer sur la définition des fonctionnalités, la proximité avec les utilisateurs, bref sur tout ce qu’il est difficile de faire « off shore » !

dimanche 2 novembre 2008

Créativité et Génération de code

Certains pourraient penser que la génération de code et la modélisation en général vont brider la créativité de leurs développements en leur imposant un carcan dont ils ne pourraient s’échapper !
Cette vision de la modélisation est très restrictive : elle laisse à penser que l’approche modélisation s’utilise comme une boîte noire dans laquelle on rentre un modèle et dont il ressort une application prête à l’emploi.

Si certaines approches MDA tentent de simplifier à l’extrême la génération d’applications (approche Crud par exemple), il est largement entendu que ces approches ne permettent que la générations d’applications très simples voire simplistes. Le MDA ne se résume pas à ces approches : dans nombre de cas d’utilisation, ces techniques sont utilisées sur des parties du projet laissant au concepteur la possibilité d’exprimer sa créativité dans les autres parties et dans la pertinence de la solution.
Pour rester sur ce sujet de créativité, on peut décomposer l’apport de la créativité aux activités de programmation sur deux axes : la créativité fonctionnelle et la créativité technique. Pour la première, l’approche modélisation/génération est extrêmement bénéfique : moins on passe de temps à coder plus on est disponible pour travailler sur les aspects fonctionnels, plus la solution apportée par l’application est innovante ou en adéquation avec les besoins de l’entreprise.
Pour la créativité technique, en première approche, il pourrait en être différemment : où trouver de la créativité dans des tâches largement automatisées ? En fait, la créativité se situe alors à un autre niveau : dans la conception du template de génération. C’est dans cet élément essentiel à la génération automatique que l’on retrouve les capacités créatives et d’innovation des développeurs. C’est dans la qualité du template que l’on retrouvera les performances de l’application, la qualité du code qui, soit dit en passant, ne doit pas être de qualité inférieure à celle d’un code écrit manuellement. La créativité technique reste absolument nécessaire pour imaginer ces solutions innovantes porteuses de gain de productivité.

Pour finir, et pour replacer dans le contexte réel les défenseurs de la créativité, quel est le réel pourcentage de code « créatif » dans les applications ? Peut-on vraiment parler de créativité quand on passe une bonne partie de son énergie dans l’écriture de code transformant des données d’une représentation dans une autre ? N’est-il pas préférable d’utiliser une machine pour ces tâches pénibles et répétitives ?

dimanche 15 juin 2008

Outils de Workflow

Pour les outils de workflow, comme pour beaucoup d'autres technologies, les concepts ne datent pas d’hier. Ces outils tentent de donner un support informatique à la mise en place de procédures opérationnelles. Les directions de l’Organisation de nombreuses sociétés ont utilisé des outils de cette nature d’abord pour modéliser les processus, puis pour les mettre en œuvre. Des consortiums ont travaillé depuis des années sur la normalisation des outils qui sont restés très souvent confinés au monde du traitement documentaire.


L’objectif de ces outils est de décrire, souvent à travers une interface graphique, les différentes étapes d’une procédure mettant en relation différents intervenants et une demandant le respect d’une séquence. Après avoir été descriptifs, ces outils ont proposé des moteurs permettant alors de mettre en œuvre opérationnellement les procédures décrites. Ces outils ont ainsi permis la collaboration des différents intervenants en orchestrant les échanges et les validations. Le passage du descriptif à l’interactif a d’ailleurs alimenté bien des querelles entre Directions Informatiques et Directions de l’Organisation !


Comme mentionné plus haut, ces outils ont été utilisés pour des procédures documentaires. N’ayant aucun lien profond avec le reste du système d’information, ils ne pouvaient pas orchestrer les échanges inter applicatifs même si, technologiquement, ils en avaient depuis longtemps la capacité.
Si on imagine facilement l’importance de la formalisation des procédures, l’émergence des processus de normalisation Iso ayant matérialisé cette nécessité, on sait moins que la plupart des systèmes d’information des entreprises cachent dans leurs applicatifs des procédures implicites dont la connaissance disparaît au fil des années.


Pour illustrer ceci on peut prendre le cas de ces entreprises qui disposent de filiales en différents points du globe, chacune opérant sur des systèmes différents. Le groupe cherchant néanmoins à mettre en place des traitements consolidés pour dégager des économies d’échelle, la mise en place d’échanges inter applicatifs devient alors essentielle. Inévitablement, au gré des restructurations, ces règles d’échanges évoluent impliquant une reconfiguration du système d’information.
On parle alors de rigidité du système d’information car, l’adaptation du système aux nouvelles règles métier est longue voire pénible. Pour réaliser ces adaptations, on est souvent obligé de se réapproprier les règles d’origine dont la connaissance a été perdue, puis on tente d’implémenter les nouvelles règles dans tous les applicatifs concernés.
Le monde du Workflow, jusqu’à la naissance de la SOA, restait étranger à ces problèmes d’intégration et d’échanges inter applicatifs

dimanche 1 juin 2008

Intégration de Services et Urbanisme


Sans remonter aux origines de l’informatique, l’intégration de service existe depuis longtemps. On trouve dans les Remote Procedure Call (RPC) des tentatives d’intégration de systèmes ; ceci a trouvé un prolongement dans DCE , Corba, J2EE et finalement dans les fameux WebServices.
L’intégration de service par opposition à l’intégration de données consiste à rendre accessible des traitements à une application cliente. Il ne s’agit pas de fournir à cette application cliente des données extraites d’une base mais bien de fournir à la demande des traitements utilisant les données fournies par l’utilisateur.

Les raisons qui poussent à la mise en œuvre de ce type d’intégration sont nombreuses mais la principale, Graal de l’informatique depuis des années, est la réutilisation. En effet, ces technologies d’intégration rendent possible la réutilisation d’une partie d’un système exposé sous la forme d’un service.
Pour illustrer ceci, on peut prendre l’exemple souvent observé du système legacy fournissant des fonctionnalités indispensables au bon fonctionnement de l’entreprise. Malheureusement, ces ressources sont plus ou moins verrouillées dans une architecture fermée ou dans une technologie ancienne et par ailleurs, le coût de portage de l’ancienne application dans une architecture plus ouverte s’avère plus que prohibitif voire impossible. Les technologies telles que celles mentionnées précédemment ont alors été utilisées pour fournir des services de base à de nouvelles applications apportant de nouvelles fonctionnalités.
Un exemple concret vécu au début des années 90 : une entreprise disposait d’un moteur de calcul financier de plus d’un million de lignes de Fortan 66 associé à une base de données propriétaire elle aussi assez vaste. Arrivent à cette époque les stations de travail sous Unix, qui donnent aux utilisateurs des possibilités ergonomiques et graphiques sans précédent. Mais comment bénéficier des ressources du « legacy » sur les stations de travail sans porter dans le nouvel environnement le moteur de calcul et ses données ? La définition d’une abstraction de ce moteur de calcul a permis l'implémentation sur le système legacy d’un service utilisable par les nouvelles applications développées sur les stations de travail

Cet exemple qui présente une réutilisation pragmatique et plutôt technique montre cependant la composante fonctionnelle inhérente à l’intégration de service. Le sujet n’est pas que technique : qui dit intégration de service dit définition des fonctionnalités de ce service.
Dans certaines entreprises, une analyse plus en amont et plus fonctionnelle de la réutilisation a été menée à travers les travaux d’urbanisation du système d’information. L’intégration de service peut être le support de ces réflexions sur la réutilisation permettant de donner une réalité aux concepts manipulés par les urbanistes.