Cobol Vs Objet

Réinventer la roue

Logique pure, dissonances & approches marketing 

Depuis que les ordinateurs centraux de type IBM Mainframe existent, la sécurité, les volumétries d’information et la satisfaction des entreprises n’ont cessé de croître à l’égard de leurs performances.

Ceci n’a pas empêché bon nombre de technologies de se développer en périphérie ou à la surface de ces ordinateurs centraux, afin d’améliorer les opérations de saisies, le design des interfaces ou bien encore, l’expérience des collaborateurs et autres utilisateurs.

Cependant, depuis plusieurs années maintenant, des équipes commerciales démarchent les différentes équipes de décideurs afin de “moderniser” ces infrastructures, ce qui n’est pas sans créer un récit déformant la réalité, autour de l’obsolescence de ces ordinateurs centraux, quitte à sur-vendre les performances de leurs technologies N-TIC, ou pire, à biaiser les apports réels en termes de sécurité, résilience, intégrité de leurs systèmes.

Le récit ainsi créé se construit souvent autour d’un jargon empruntant au novlangue commercial informatique, autour de l’Agilité, de l’interopérabilité, ou de la simplicité d’utilisation de ces nouvelles technologies, eu et gard aux différences entre : charges d’investissement et charges d’exploitation. 

Cependant, lorsque l’on arrive au moment où il faut comparer les architectures techniques, pré-requis et fonctionnement des systèmes TIC et N-TIC, ou alors la structure des coûts, l’incertitude se crée et le doute saisit, à juste titre, le décideur, au fur et à mesure que le discours commercial se désagrège et bute sur différents points durs.

Pour n’en citer ici que quelques un, on retrouve les problématiques d’optimisation qui sont souvent une première cause de réticences des directions. En effet, comparer la gestion des objets à la gestion des octets peut parfois s’avérer un exercice complexe et hasardeux. “Et allez, allouons un double mot pour stocker un compteur !” À ce niveau-là du discours, le commercial est perdu.

Dans cette même veine, la gestion de la mémoire est souvent sujette à controverses. À juste titre, sans vouloir jeter la pierre, déléguer la gestion de la mémoire inerte à un sous-système de type “Garbage Collector” peut parfois poser quelques soucis, quand les données concernent par exemple :

  • des comptes bancaires,
  • transactions sur des marchés,
  • des données de simulations ou d’exploitations nucléaires,
  • autres historiques de sécurité sociale ou communications téléphoniques,
  • des procédures administratives,
  • les paies ou congés des salariés,
  • les logistiques aérienne ou ferroviaire,
  • la gestion des stocks,
  • etc…

Ce qui, et nous pesons nos mots, vaut bien le risque de prendre le temps de se donner la peine de compiler manuellement une bibliothèque. Et là, une nouvelle fois, le commercial regarde ses chaussures…

Ce faisant, les études sur les améliorations possibles des programmes développés sur des grands systèmes de type Mainframe pointent généralement une unique piste d’amélioration, qui est structurelle à tout type de système informatique : la vitesse d’écriture des pointes sur disque dur. Ce qui, doit on l’avouer, est assez accommodant car un seul axe n’est pas tout azimut, et n’est tributaire alors que d’un seul type d’innovation, sur lequel les efforts de conception peuvent se concentrer viablement.

Loin des problématiques commerciales, Cobol reste le langage omnipotent, et qui répond aux enjeux concrets des problématiques des très grosses structures de travail quant à la sensibilités de leurs traitements, exigences de performances et volumétries d’informations.

A chacun son métier, l’informatique c’est avant tout, capter, traiter, stocker, retraiter, restituer de l’information. Les problématiques de sécurité, d’accessibilité et de capacités sont au cœur du métier. Db2 a t’il déjà atteint sa limite ? Une transaction CICS interrompue a-t-elle déjà engendré une modification du système ?

À bon entendeur.