ZAC Gennevilliers – Passerelles métalliques

ZAC Gennevilliers, réalisation de passerelles métalliques


Dans le cadre de l’élaboration de la ZAC de GENNEVILLIERS, ACFT Bureau d’Études a été mis à contribution pour la réalisation de passerelles.

Le client direct d’ACFT Bureau d’Études est un fabricant et installateur de gardes-corps et de moyens d’accès (échelles, escaliers).

Ce projet a demandé à nos collaborateurs de mettre à profit leur savoir faire afin de répondre aux exigences du client final qui souhaite, en plus des contraintes particulières sur ce genre d’équipement, que celui-ci ait un esthétisme poussé et notamment qu’aucune fixation ne soit apparente.

L’objectif a donc été de réaliser 2 passerelles différentes servant chacune à relier les terrasses de 2 bâtiments : 1 passerelle droite et 1 passerelle avec escaliers.

 

Ces passerelles répondaient à un cahier des charges précis :

  • Le plancher doit être en bois
  • Le dessous de la passerelle doit être habillé par de la tôle en aluminium
  • Mise en place d’évacuation d’eau sous le plancher de la passerelle
  • Les gardes corps doivent être en bois (avec aucune fixation apparente).

Afin de réaliser les garde-corps en bois, il a fallu réaliser des montants en tube avec des perçages afin de les fixer sur la charpente de la passerelle. L’habillage bois a ensuite pu être apposé.

 

Cette affaire s’est réalisée en 3 temps :

  • Une partie de relevés sur place pendant laquelle notre collaborateur a été mis en relation avec notre client et le client final,
  • Une partie de mise en plan sur le site de GONFREVILLE L'ORCHER,
  • La réalisation de notes de calculs sur le site d’ELBEUF afin de valider l’ossature métallique de la passerelle et de l’escalier (dimensionnement, vérification des assemblages et de la stabilité globale, définition de la descente de charge, …)

 

Ces passerelles ont été mises en place courant 2019.

En savoir plus sur les constructions métalliques ?

Consultez nos pages métier :
Constructions métalliques

 

Consultez les pages Facebook :

Facebook ACFT bureau d'études

Facebook ACFT Construction

 

Journée SSE du 04/10/2019

Journée SSE du 04/10/2019


Cette seconde journée SSE de l’année a été l’occasion de présenter notre nouveau
collaborateur en Construction Métallique au reste de l’équipe.

 

Cette nouvelle embauche nous permet de renforcer notre activité en Construction Métallique.

 

Nous souhaitons la bienvenue à François.

ACFT Bureau d'Études est certifié MASE depuis 2013

 

 

Seconde Journée SSE 2019


Deuxième journée SSE

Après une première journée SSE ayant permis de démarrer l’année en présentant les objectifs de la direction ainsi que les objectifs individuels, celle-ci a permis de suivre l’avancement de ces objectifs.
Comme il est de coutume lors de ces journées, l’accueil a été convivial et a permis à chacun de se retrouver et de discuter de différents sujets.

La journée a débuté par un tour d’horizon des actualités de la société puis des actualités en matière de SSE.
Puis tout le monde a pu échanger autour de deux causeries :

  • Les kits d’intervention
  • Les extincteurs

avant une pause déjeuner bien méritée :

L’après-midi a débuté par 2 nouvelles causeries :

Pour conclure cette journée, une formation sur les gestes et postures a été dispensée afin de former les collaborateurs aux bonnes positions à adopter au poste de travail avec quelques exercices d’échauffement et d’étirements

 

Logiciels de DAO, CAO, FAO, 60 ans d’évolution.

Les logiciels de CAO, DAO, FAO, …
retour sur les 60 ans d’évolution de ces outils
qui ont changé le monde de l’industrie.

Le concept remonte à la fin des années 50 : avec les progrès de l’informatique, des ingénieurs jettent les bases de ce qui deviendra plus tard le premier logiciel de CAO. Au tout début les logiciels tournent sur des machines énormes, pesant plusieurs tonnes, pour se réduire en fin de compte à des mini stations portables au XXIe siècle. Retour sur ce qui fut le départ d’une révolution dans le secteur de la conception industrielle.

Patrick Hanratty et Ivan Sutherland sont crédités comme étant les pionniers de la CAO moderne, ce sont leurs travaux pratiques et théoriques qui vont permettre au fil du temps l’émergence d’outils destinés à simplifier et améliorer la fabrication et la conception de pièces industrielles. Et tout cela à l’aide des technologies informatiques encore balbutiantes du début des années 60.

Patrick Hanratty

Développeur de ADAM, premier logiciel CAO compatible multi-systèmes.

Ce système fait aujourd’hui figure du premier vrai standard en CAO

Ivan Sutherland

Concepteur et théoricien du système SKETCHPAD,

il est à l’origine des systèmes d’interface graphiques dédiés à la CAO.

Années 1950

En 1957, Patrick J. Hanratty développe le programme PRONTO pour General Electric. C’est de cette façon que voit le jour le premier langage de programmation de contrôle numérique de l’histoire.

Années 1960

Au début des années 60, Ivan Sutherland, au travers de sa thèse de doctorat, propose un concept novateur de système informatique capable d’afficher des plans sur écran qu’il serait possible de manipuler à l’aide d’un stylo optique. La seule limite reste l’informatique de l’époque, encore embryonnaire mais les concepts d’interface graphique et de modélisation 3D débutent à ce moment-là.

Durant la décennie des années 60 jusqu’au milieu des années 70, la CAO est réservée uniquement aux très grosses entreprises (IBM, Lookeed Martin, Honeywell, NASA, Dassault,...) qui développent en interne des solutions propriétaires.

Années 1970

En 1971, Patrick J. Hanratty se lance dans l’écriture du code d’un nouveau logiciel de CAO nommé ADAM, ce système de conception graphique, de dessin et de fabrication interactif a été écrit en Fortran et conçu pour fonctionner sur pratiquement toutes les machines. Ce succès retentissant a ensuite été mis à jour pour fonctionner sur des ordinateurs 16 et 32 bits. Aujourd'hui, 80% des programmes de CAO trouvent leurs origines dans le programme ADAM.

En 1972, Ed Catmull et Fred Parke réalisent la Première animation 3D, d'une main et d'un visage, à l'aide d'un logiciel qu'ils ont développé.
Catmull, va ensuite travailler chez ILM et deviendra plus tard un des fondateur de Pixar.

1975 Martin Newell veut tester des algorithmes de rendus 3D, dans le cadre de son doctorat. A l'époque il n'existe pas beaucoup d'objets 3D complexes, et l'accès à ces objets semble très compliqué.
Newell décide donc de concevoir son propre objet 3D afin de pouvoir réaliser ses tests. Pour ce faire, il digitalise manuellement une théière, en utilisant les courbes de Bézier.
Du fait de sa complexité, ce modèle va devenir célèbre, on le retrouve aujourd'hui dans de nombreux logiciels, en tant qu'objet standard.

En 1977, Digital Equipment Corporation (DEC) lance le VAX 11/780 exécutant le système d'exploitation VMS à mémoire virtuelle 32 bits. Ces machines seraient utilisées pour le traitement par lots, le partage du temps et l'informatique en temps réel. Ils sont vendus avec un réseau informatique intégré et des méthodes normalisées pour dialoguer entre les langages de programmation. Cette machine est un concurrent sérieux pour l'IBM 360 qui domine le marché de la CAO.

La même Année Dassault System system lance CATI, Lookeed Martin lance CADAM.

Suite au rachat de United Computing par l’avionneur Mac Donnell Douglas en 1976, le logiciel ADAM va subir une refonte complète pour devenir Unigraphics R 1.0 (NX) de Siemens qui est lancé en Avril 1978. Les systèmes de CAO se développent et sont utilisés par l'aérospatiale, le secteur automobile et les industries. Les systèmes permettant de faire fonctionner un logiciel de CAO, sont en train de passer sur des « mini-ordinateurs », il faut comprendre qu'une machine de ce genre, pèse environ 500Kg, et qu’il faut envoyer plusieurs techniciens pour la déployer chez le client. Le chargement des logiciels se fait ensuite via des bandes magnétiques. Nous sommes encore à des années lumières de ce que nous connaissons aujourd’hui.

Années 1980

L’IBM PC lancé en 1981, va changer la donne en propulsant la CAO à grande échelle. Son atout le plus important est son prix, ce qui va permettre une démocratisation rapide de la CAO dans de nombreuses sociétés de moyenne et petite taille. C’est à cette époque que les premières versions des logiciels actuels vont voir le jour. L’avènement de la micro-informatique grand public des années 80, va donc considérablement réduire la taille des énormes systèmes jusque-là utilisés pour faire fonctionner les complexes logiciels de CAO. Unigraphics en version 2.1 est porté sur la gamme DEC VAX.

1982, voit la création de SUN Microsystems. SUN a contribué à populariser UNIX pour l'informatique scientifique. Chaque poste de travail, qui pouvait prendre place sur le bureau d’un ingénieur, contenait un processeur, un périphérique graphique ou un terminal et des périphériques d’entrée. Ils étaient faciles à mettre en réseau pour faciliter le partage et l’accès aux données et au traitement. Les postes de travail UNIX individuels seraient aux finals beaucoup plus puissants qu'un mini-ordinateur 11/780 ou un IBM 360.

 

Toujours en 1982, un groupe de programmeurs créent la société Autodesk, et son fameux logiciel AutoCAD. La première version d’AutoCAD est annoncée en novembre lors du salon Comdex de Las Vegas et fera l’objet de démonstrations sur un Z80, un Victor 9000 et un IBM. Elle sera livrée aux premiers clients dès décembre de la même année.

1982, c'est aussi le début de l'utilisation de la CAO au cinéma, avec le film TRON de Walt Disney. Le Logiciel qui permet de réaliser une partie des scènes véritablement synthétiques est SynthaVision de chez MAGI.
Ce n'est pas encore un logiciel de CAO vraiment destiné à l'industrie cinématographique, mais ses capacités de modélisation à base de polygones se prêtent bien aux besoins de l'industrie graphique naissante.

 

A l'époque, un ordinateur central CRAY disposait de 8 Mo de mémoire pour un coût de 7 millions de dollars. Pour TRON, chaque rendu nécessitait 18 Mo de mémoire.
Ainsi, même sur un CRAY, les animateurs n'auraient pas pu visualiser une seule image, quel que soit l'ordinateur utilisé, il ne pouvait restituer qu'une seule ligne de balayage à la fois.
Pour voir le résultat final de l'image, il fallait attendre que les lignes soient combinées ensembles, véritable travail de titan pour l'époque.

L'engouement pour l'image de synthèse au cinéma atteint son sommet en 1984, avec un petit film de SF devenu culte depuis : The Last Starfighter.
Comme TRON, ce film est un des pionniers du genre à inclure de la vraie image de synthèse
(300 scènes, soit plus de 27 minutes de pure CGI, avec un format d'image de 5000 x 3000 pixels) pour des séquences réalistes de combat spatiaux.
Pour venir à bout de ce travail titanesque, il aura fallut : 1 CRAY XMP,  2 DEC VAX 11/780 et 120 Stations de travail IMI 500.

Malgré la prouesse technique, le monde du cinéma  de l'époque a encore du mal à croire que la CGI deviendra le fer de lance des effets visuels.

A partir de 1985, des gammes de machines compactes, très puissantes et de moins en moins chères vont faire leur apparition.
L’AMIGA 1000 est le premier vrai système multimédia de l’histoire, sa carte mère inclue un jeu de processeurs dédiés pour le son l’image, l’animation, afin de décharger le processeur principal.
L’atout majeur de cette gamme de nouvelles machines est le prix, qui reste abordable au grand public.

C'est sur cette machine que seront développé les logiciels de 3D : Cinéma 4D et Lightwave 3D. Logiciels à la base des effets visuels de nombreuses séries TV des années 90 / 2000

La CAO à destination de l’industrie cinématographique et du divertissement se développe en 1986, avec l'apparition de Softimage 3D par Daniel Langlois à Montréal.
Softimage 3D est le pionnier des logiciels commerciaux de CAO dont la cible est l'industrie du cinéma.

C’est ce fameux logiciel de 3D qui servira (entre autres) aux effets spéciaux des films Abyss et Jurassic Park. Le logiciel qui tourne alors sous UNIX, nécessite une machine très onéreuse pour pouvoir fonctionner (Silicon Graphics de Sun). Pour l'époque son interface utilisateur est novatrice.

Dans le domaine de la CAO industrielle, les améliorations sont beaucoup moins notables, surtout en ce qui concerne l'ergonomie des interfaces utilisateurs. Le paradigme des interfaces des logiciels de CAO à l'usage de l'industrie du divertissement vont grandement inspirer les futurs développements de ceux de la CAO industrielle.


AutoCad 2.18 (1986)

En 1988, Unigraphics porte sa solution NX sous UNIX, cela marque le début de la fin des gros mainframes propriétaires(1) .

L’année 89, marque un tournant dans la CAO, avec la version 1.0 de Pro / Engineer.

Il introduit la modélisation paramétrique(2) des solides, basé sur les fonctionnalités. Un paradigme que tous les systèmes de CAO courants copient. Pour la première fois, la modélisation solide devient une alternative productive à la modélisation filaire. Les responsables techniques peuvent désormais acheter un poste de CAO sans l’approbation du département MIS (Département Méthodes pour l’ingénierie des systèmes.)


Pro Engineer Release 1.0 les logiciels de CAO entrent dans l’ère de la 3D paramétrique.

De son coté, Lookheed Martin propose son logiciel CADAM à la vente, et IBM le rachète. Il faut préciser qu’à cette époque, Lookeed utilise déjà CATIA pour ses projets avancés, CADAM son logiciel propriétaire n’a plus vraiment d’intérêt stratégique. CATIA se révèle être bien plus avancé en terme de conception puisqu’il intègre depuis longtemps une véritable vue en 3D, ce qui n’est toujours pas le cas de CADAM. La fin de la décennie 80 voit aussi une évolution majeure dans l’utilisation des systèmes CAO par l’abandon progressif des mainframes propriétaires qui,  jusque-là permettaient de faire fonctionner les logiciels.

Années 1990

En 1990, dans le domaine de la CAO ludique Autodesk lance le logiciel 3D studio sous MSDOS. D'abord situé sur le même segment de marché que Lightwave et cinema 4D, le logiciel va connaitre une certaine notoriété auprès des professionnels, et du grand public.


1991, 3D studio sous MSDOS de chez Autodesk. L’infographie 3D ludique, se démocratise en se déployant sur un simple PC.

En 1993, Spielberg, réalise le film Jurassic Park, après avoir regardé des séquences en stop motion classique et les mêmes séquences en CGI, il opte pour une version tout numérique pour animer les monstres préhistoriques. C'est Softimage 3D et sa collection d'outils, qui va permettre cette prouesse technologique. Cette fois le monde de l'industrie cinématographique, est convaincue que la technologie de CAO est mature pour les effets visuels au cinéma.


Softimage 3D en 1993

L’arrivée des processeurs Pentium de chez INTEL en 1992 sonne le glas des mini-ordinateurs et des stations de travail très onéreuses fonctionnant sous UNIX et autre. L'ensemble des logiciels de CAO qui fonctionnaient sous de gros systèmes et des stations de travail coûteuses, va commencer à migrer massivement sur PC. Tous les secteurs de l'industrie sont maintenant concernés.

Microsoft rachète Softimage en 1994, et décide de le porter sous windows NT, mais ne le rends pas plus accessible à un large public d'utilisateurs.


Solidworks95, en plus de la modélisation ce nouveau logiciel va intégrer de puissants outils de modélisation.

La société Solidworks sort ainsi son logiciel en 1994. Celui-ci permet outre le dessin technique de concevoir des ensembles et sous-ensembles 3D très complexes, proche d’un process de fabrication. Des fonctions supplémentaires comme la simulation de test de résistances des matériaux, en font un outil incontournable du secteur. Ce concurrent de CATIA est racheté par Dassault Systèmes en 1997.

En 1995, un logiciel de 3D à but ludique fait son apparition : Blender. A l'origine développé sur AMIGA sous le nom de "Trace", son auteur Ton Roosendaal, décide de créer un logiciel Open Source. Il obtient des fond et ouvre la société NaN en 1998 pour développer et partager Blender.

La CAO entre dans le monde de l'Open source avec Blender, un petit logiciel qui va devenir la référence en la matière.

En 1998, CATIA de chez Dassault Systèmes abandonne à son tour le monde mainframe, et s’installe sous UNIX et Windows NT.


CATIA V5.0

En 1996, PIXAR sort le premier film entièrement en images de synthèse : Toy Story, résultat des dix ans de développement de son logiciel RENDERMAN. L'industrie du divertissement, envisage maintenant la CAO comme un outil de production fiable dont les résultats permettent de réaliser d'impressionnant effets  spéciaux.

Toujours en 1996, Autodesk, lance 3D Studio Max R1.0 sous windows. L'interface logicielle très ergonomique, permet la modélisation et l'animation dans un seul produit.
L'aspect ludique, fait que le produit se place alors parmi les premiers de cette période. La communauté utilisateurs devient très importante, et développe ensuite des plugins pour améliorer les capacités.
Par ailleurs le logiciel propose un système d’animation de personnage pré-paramètré dans son éditeur : Character Studio. C’est une petite révolution dans le domaine de la production cinématographique, mais aussi dans le monde du jeu vidéo. C'est la facilité d'accès à 3D Studio (Dos et Windows), et son côté ludique adapté aux jeux vidéos,  qui va permettre à tout un public de passionnés de se former, contrairement à des outils comme Softimage fonctionnant sur des supports totalement inaccessibles.

En 1999 Autodesk lance Inventor, qui devient un concurrent sérieux en termes de fonctionnalités, pour CATIA, Solidworks et Unigraphics.

Années 2000

Le portage sur Windows NT des grands logiciels de 3D va participer à la démocratisation de ceux-ci. Une énorme communauté d'utilisateurs et de passionnés va créer des bibliothèques gratuites d'objets 3D sur internet. Les principales améliorations de cette décennie se font au niveau de l’affichage en temps réel d’un nombre très important de pièces dans les ensembles et sous-ensembles. La puissance des stations de travail autonomes au travers des nouvelles cartes graphiques permettra l’affichage d’ensemble très complexe, et le début des simulations en temps réels.

Microsoft arrête Softimage à sa version 4.0 en 2002, au profit de sa version réécrite plus spécifiquement pour NT : Softimage XSI.

CATIA V6 2008 - Dassault system

En 2008, CATIA V6 permet de réaliser une maquette numérique fonctionnelle, au travers d’une simulation. Cette maquette numérique complète du produit prend en compte toutes les vues que nécessite le développement produit : les exigences autant que les définitions fonctionnelles, logiques et physiques.

Dans le domaine de la CAO ludique, c’est une véritable explosion de nouveautés proposant toutes des fonctionnalités différentes et de plus en plus ergonomiques. Le monde de l’open source, va finir d'imposer Blender, qui va devenir le standard de ceux qui souhaitent pouvoir faire de la 3D gratuitement.

En 2008 Autodesk rachète Softimage et commence l'intégration de sa technologie à sa suite de logiciels, occupant le même segment de marché : Maya et 3dsmax

Années 2010

L’arrivée d’internet depuis plus de 10 ans et les améliorations constantes des services en ligne vont voir apparaître des applications de CAO en ligne pouvant exploiter la technologie du Cloud.

Dans la décennie des années 2010, le site GrabCad est créé. Il permet le partage via une communauté d’utilisateurs, d’objet 3D normalisés. Et avec le cloud, il est désormais possible à un ingénieur de travailler avec son PC portable depuis n’importe où. A noter, l'apparition d'applications de 3D temps réel, tels que Unity, openspace 3D,  permettant la navigation au sein d'un univers virtuel.


Station de travail autonome (Modèle HP)

Solidworks

En 2012 Autodesk lance Autodesk 360 et l’utilisation du cloud dans le flux de production de ses suites logicielles.

Des applications dédiées aux smartphones et tablettes voient le jour tel que 3D AP en 2013. Il est maintenant possible de visualiser une pièce 3D complexe depuis un appareil qui tient dans la main.
Google sort l'application en ligne Sketchup, qui permet de créer rapidement des objets 3D.


Sketchup de Google

En 2014, Autodesk annonce l'arrêt définitif du développement de Softimage XSI. La décision fait polémique, les professionnels de la CGI expliquent qu'Autodesk aurait racheté Softimage pour récupérer sa technologie.
Mais le logiciel semble surtout avoir été victime de son inaccessibilité au grand public, contrairement à ses concurrents. Autodesk, va cependant maintenir le logiciel Softimage jusqu'en 2016,  puis le retirera progressivement du marché au profit de Maya et 3Dsmax qui hériteront d'une grande partie des ses aspects techniques.

En 2015, ONSHAPE, lance un système de CAO depuis le cloud.


ONSHAPE

La CAO a fait son entrée dans le grand public, il est désormais possible de concevoir en quelques clics des maquettes virtuelles complexes, grâce à des outils simples, ergonomiques et très puissants.
Les applications sont nombreuses, et des innovations ont fait leur apparition comme l'impression en 3D, à partir d'objets virtuels. En effet, il est aujourd'hui possible dans le cadre industriel et personnel, de concevoir des prototypages, et des mini séries d'un produit, en très peu de temps.

Années 2020

L'apparition de l'IA dans le domaine de la CAO, elle va permettre d'automatiser des tâches répétitives, puis progressivement de permettre d'accélérer le conception de produits. Via la conception générative, une méthode où l’algorithme explore des milliers de permutations pour identifier des solutions optimales répondant à des contraintes spécifiques (poids, résistance, coût), la conception du produit final se retrouvera largement optimisée . Des logiciels tels que Fusion 360 et SolidWork utilisent cette approche pour produire des structures spécifiques, optimisée mais toujours robustes,  et souvent contre-intuitives pour le technicien humain. Dans le domaine de l'aérospatial, ces outils vont permettre une optimisation significative de la masse des composants critiques sans remettre en cause la résistance mécanique.

Elle ne peut cependant pas remplacer le technicien, car l'expérience de l'IA se fonde uniquement sur des exemples existants de sujets classiques stockés en base de données. Un conception originale ne pourra se faire qu'à l'aide de spécialistes.

Années 20XX…

La complexité des fonctions et des applications liées aux logiciels de CAO / DAO reste dépendante des machines qui les font tourner. On peut imaginer, avec l’avènement de l’informatique quantique, la conception temps réel d'ensembles très complexes. Et grâce à la réalité virtuelle augmentée, permettre au concepteur de simuler son fonctionnement. De même, après avoir conçu l'ensemble dans un système virtuel, il sera possible au technicien, de le réaliser dans le monde réel via une imprimante 3D, en très peu de temps.

(1) Mainframe : Désigne un ordinateur centralisant toutes les données, auquel sont connecté des terminaux. Le mainframe, est capable de faire tourner des dizaines de systèmes d'exploitation simultanément. Le terme désigne particulièrement les machines type IBM 360/370. Progressivement remplacé par des systèmes plus petits dans les structures de tailles moyennes,  le mainframe, est encore utilisé aujourd'hui par les très grosses entreprises.

(2) Modélisation paramétrique : Le paradigme de modélisation paramétrique répond à une approche de conception technique et fonctionnelle. Le concepteur doit avoir une idée relativement précise de ce qu'il va faire pour anticiper et définir les contraintes des fonctions et les dépendances. Toute modification de la conception est ainsi répercutée en aval, d'une manière prédéfinie. 

Crédits photos : Public domain images, freestock photos, fotolia, National archives, NX Siemens, Solidworks, Sketchup, CATIA.

Pour aller plus loin :
https://fr.wikipedia.org/wiki/Th%C3%A9i%C3%A8re_de_l%27Utah
https://fr.wikipedia.org/wiki/Edwin_Catmull
https://fr.wikipedia.org/wiki/Starfighter_(film)
https://fr.wikipedia.org/wiki/Computer_Augmented_Design_And_Manufacturing
https://en.wikipedia.org/wiki/Cray_X-MP
https://en.wikipedia.org/wiki/VAX-11

 

Intelligence Artificielle, un nouvel outil dans l’industrie

Intelligence Artificielle, un nouvel outil dans l'industrie

Après avoir rendu possible l’extension de son corps avec la mécanique classique et la création d’engins roulants, volants et flottants ; l’homme a voulu aller plus loin en prolongeant ses capacités cognitives avec les ordinateurs.
Après avoir longtemps appartenus à l’univers de la science-fiction, le mythe de l’ordinateur autonome et capable de conscience serait-il en passe de se réaliser prochainement ?

On parle aujourd’hui d’intelligence artificielle, voire de machines supposées remplacer l’humain. Certains parlent de 30% d’emplois qui seront remplacés dans un avenir proche par des robots, d’autres prédisent l’apparition d’une singularité technologique, c’est-à-dire le moment où la machine pourrait devenir autonome. Les dernières avancées technologiques semblent aller dans ce sens (véhicules autonomes, assistants vocaux, …) même si nous sommes encore loin d’y arriver.

 

Un peu d’histoire…

En 1936, Alan Turing avec son essai « la machine de Turing », va initier la première génération d’ordinateurs. Il va en théoriser tout le potentiel au travers de ses écrits. C’est ici que vont naitre les concepts de cybernétiques et d’ordinateurs intelligents. À partir de cette époque, et de manière spéculative, on imagine qu’il serait possible de construire une machine autonome, voire pensante.

 

Les machines des générations suivantes, tels que l’ENIAC ou l’IBM 704, de par leur conception et leur vitesse de traitement, font faire des progrès au monde de l’informatique. Mais leurs systèmes électromécaniques à ampoules vont, pour un temps, ranger la promesse de l’IA et ses fabuleux potentiels dans les tiroirs des œuvres de la science-fiction.

En 1965, Gordon Earl Moore (un des père d’IBM), parle de doubler la capacité du nombre de transistors sur les microprocesseurs tous les ans. C’est ainsi que va naitre la fameuse « première loi de Moore », qui démontrera son exactitude de 1971 à 2001.
La vitesse de traitement des machines évolue au cours des années 70, avec l’apparition des premiers microprocesseurs tels que l’Intel 4004, et une nouvelle étape technologique est franchie. Puis, au début des années 1980, Richard Feynman évoque la possibilité de construire un ordinateur quantique, ce qui aurait pour effet de décupler la vitesse des calculs.

Les premières expérimentations ont lieu dans les années 90 avec de petits calculateurs expérimentaux dits quantiques, mais à partir de 2007, D-wave system annonce avoir construit une machine de 16 Quantum Bits. En 2019, l'entreprise a dévoilé un système à 2000 qubits.
Le seul problème reste encore la taille du dispositif et son encombrement. Aujourd’hui les projets concernant le sujet sont légions, certains prédisent l’avènement du tout quantique pour les années 2020. Quand cette machine sera opérationnelle, elle offrira une capacité de calculs inimaginable pour les machines classiques. De fait, l’IA trouverait un socle prometteur pour pouvoir se développer.

Programmes, Algorithmes, IA et Science-fiction

Dès les années 1940, Isaac Asimov, un des patriarches de la SF moderne, publie des nouvelles d’anticipation mettant en scène des histoires de robots. Asimov modernise ici le thème mythique et séculaire du Golem, et propose tout l’éventail des problématiques scientifiques et philosophiques se posant autour de ce sujet. Conscient de ce qu’il pourrait advenir des sociétés humaines lors de la création effective de telles entités, il développe les trois lois de la robotique, afin de concevoir un cadre comportemental aux machines autonomes.

Dès les origines, l’idée que l’on puisse construire des créatures artificielles pose une série de questions suscitant une certaine inquiétude. Le cinéma et la littérature nous donnent depuis, et de façon récurrente, des visions positives ou négatives sur le sujet :

  • avec des IA destructrices nous promettant l’apocalypse tel le SKYNET du film Terminator,
  • ou bien des IA bienveillantes avec le film IA de Spielberg, avec cette machine qui se prend pour un petit garçon.

En Janvier 2015, un groupe de personnalités du monde industriel et scientifique, dont font partie Elon Musk et le défunt Stephen Hawking, rédigent une lettre ouverte à destination du monde entier afin de mettre en garde l’humanité face au danger que pourrait représenter une IA devenue incontrôlable.

Ce texte pointe du doigt ce que l’on appelle les armes autonomes, c’est-à-dire des drones intelligents capables d’identifier un ennemi et de prendre seuls la décision de le détruire ou non. Pour les cosignataires de la lettre, il s’agit là d’une dérive dangereuse de l’utilisation de l’IA dans le domaine militaire :

"Ce ne serait qu'une question de temps avant que ces armes n'apparaissent sur le marché noir et dans les mains des terroristes, de dictateurs voulant asservir leur population ou de seigneurs de guerre voulant perpétuer des épurations ethniques".

En ce début de XXIe siècle, l’IA fait donc partie de l’actualité et les rapports et études pleuvent sur les conséquences à venir dans le secteur industriel, et les sociétés.

 

Demain un robot « intelligent » ?

Dans les années 50, Von Neumann, l’architecte des ordinateurs modernes, a prédit la « singularité technologique », c’est-à-dire le moment où la machine serait en mesure de dépasser l’homme. Nous sommes à la veille de mettre au point les ordinateurs quantiques, et donc de posséder une puissance de calculs qui permettrait, selon certains futurologues, de réaliser ce basculement. Mais en fin de compte l’intelligence artificielle c’est quoi ?

Définition : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. » - LAROUSSE


Schéma de l'architecture de Von Neumann

L’intelligence d’une machine n’est actuellement que l’extension d’une forme de l’intelligence humaine, qui se caractérise par le fait d’être doué en mathématiques et en logique. Seulement voilà, depuis un certain temps maintenant on s’est aperçu que l’intelligence humaine ne se résumait pas à une seule forme d’intelligence mais à plusieurs combinées entres elles ! Le mot intelligence s’écrit maintenant au pluriel. Ainsi il y a des intelligences émotionnelles, artistiques, de l'espace, etc. Et il serait vain de les comparer. Ce qui permet d’animer un être humain, c’est son libre arbitre, et la conscience qu’il a de soi.

Luc DE BRABANDERE, auteur de l’ouvrage « Homo Informatix », va dans le sens d’une intelligence qui ne pourra jamais être artificielle :

« La véritable IA n'existera jamais, car le monde est inconnaissable. C'est l'histoire du philosophe à qui l'on demande : "Que pensez-vous des Espagnols ?" Et qui répond : "Je ne sais pas, je ne les connais pas tous !" Il n'est pas rationnel d'être à 100% rationnel, or un ordinateur est à 100% rationnel. Ce qui intervient dans la pensée inductive, comme l'intuition ou l'imagination, n'est pas programmable. »

L’intelligence artificielle se limite à ce qu’elle sait faire, elle n’est rien d’autre qu’un outil très perfectionné, véritable extension de l’esprit humain.

L’existence d’un robot que l’on pourrait qualifier d’« intelligent », au même titre qu’un être humain, ne serait donc qu’un rêve inatteignable.

 

L’IA, un outil, plus perfectionné que les autres ?

 L’IA se déploie aujourd’hui dans l’industrie sous la forme de ce que l’on appelle l’industrie 4.0, avec l’automatisation et l’autonomie des chaines de production, et l’interopérabilité des machines. Comme à chaque période de transition technologique, cela suscite une certaine inquiétude car cela va modifier la donne en matière d’emploi. Certains rapports évoquent la substitution de 9% des emplois en France (source : OCDE) voir 47% aux États-Unis (source : Frey & Osborne). Cependant, certaines activités seront difficilement remplaçables, car un opérateur humain sera toujours nécessaire pour garder le contrôle d’une ligne de production ou effectuer le contrôle final de certains types de pièces.

Placer des cartons dans des rangées d’étagères, cela reste simple et automatisable. La forme d’« intelligence » nécessaire à cela restera fondamentalement logique et mathématique. À noter qu’il faudra toujours plusieurs techniciens et manutentionnaires pour veiller au bon fonctionnement de l’ensemble, et intervenir en cas de panne. De même on automatise des supermarchés avec des caisses rapides, mais l’intervention d’un hôte de caisse reste nécessaire pour en assurer le bon fonctionnement, en cas de défaillance.

L’IA tente d’investir de nouveaux domaines jusque-là réservés aux humains. C’est le cas par exemple de l’analyse visuelle dans le secteur de l’imagerie médicale. L’IA est ainsi accueillie par la profession comme un nouvel outil, plus perfectionné que ceux actuellement disponibles, et étant une aide à la décision supplémentaire permettant au radiologue d’affiner son diagnostic.

Dans le domaine de la RH, L’Oréal a mis en place une IA de recrutement pour ses futurs collaborateurs. Le but recherché est de pouvoir pallier à la quantité de candidatures reçues en analysant les profils par l’intermédiaire d’un chatbot. Des questions qui se veulent objectives (disponibilité, niveau d’études, …) permettent alors d’orienter la candidature vers le poste adéquat. Néanmoins, la décision de recrutement reste toujours à l’approbation d’un recruteur « humain ».

Pour l’heure l’IA est nouvel un outil informatique permettant de remplacer l’humain pour certaines tâches simples, ou l’aider dans la prise de décision. Cependant, avec les avancées prévues dans ce domaine et l’attribution toujours plus grandes de tâches à l’IA, il conviendra de légiférer afin de mettre en place des chartes de bonne conduite et d’éviter certaines possibles dérives : armes autonomes, discriminations à l’embauche, …

Crédits photos : Fotolia, Archives, 123rf, Dreamstime

Journée SSE du 26/04/2019

Journée SSE du 26/04/2019


Cette première journée SSE de l'année a été l'occasion de réunir l'ensemble des collaborateurs du site dans nos
nouveaux locaux de GONFREVILLE-L'ORCHER.

À présent installés sur plus de 200m² de bureaux sur 2 étages, nous sommes en mesure d'anticiper une croissance
de nos effectifs sur ce site.

Toutes les conditions étaient réunis pour lancer officiellement une nouvelle année sous le signe de la performance
SSE !

ACFT Bureau d'Études est certifié MASE depuis 2013

 

 

Première Journée SSE 2019


Le Vendredi 26 Avril a eu lieu la première journée SSE de l’année 2019 sur le site de GONFREVILLE-L’ORCHER.
Cette journée, a permis d’échanger sur différents thèmes touchant à la Santé, à la Sécurité et à l’Environnement et d'informer les collaborateurs sur les résultats de l'année passée et sur les objectifs pour cette année.

Après un accueil convivial autour d'un café et de quelques viennoiseries, la direction a présenté les résultats financiers 2018 et les objectifs 2019. Plusieurs informations touchant à la vie de la société et aux grands projets à venir ont pu être exposés et débattus à cette occasion.

Suite à cela, les 3 grands objectifs en matière de Santé, de Sécurité et d'Environnement ont été présentés et expliqués, et un point sur les actions en cours a été réalisé.

À la suite d'un repas remplit d'échanges, des causeries et animations SSE ont été réalisées autour de 3 sujets :

  • L'utilisation des vêtements de protection
  • Les risques oculaires
  • La gestion des gobelets plastiques

Rendez-vous début octobre pour une nouvelle journée SSE et de nouvelles actualités !

ACFT Bureau d études, agence du Havre

ACFT - Le Havre - Gonfreville l'Orcher

ACFT Bureau d'études le Havre,
emménage dans ses nouveaux locaux…

Ça y est ! Nous sommes installés dans nos nouveaux locaux.
Notre équipe vous recevra désormais à notre nouvelle adresse :

2, avenue Marcel Le Mignot, 76700 Gonfreville-L’Orcher,
que vous pouvez venir découvrir dès maintenant.

L’intégration de nouveaux bureaux s'inscrit dans le cadre du développement des activités d’ACFT.
ACFT Bureau d’Études et d’ACFT Construction travaillent en synergie,
et nous permettent de proposer à nos clients des solutions clés en mains notamment en mécanique.
La montée en puissance de notre site Havrais doit permettre à ACFT Bureau d’Études de consolider son ancrage dans la région,
et d’accroitre le rayonnement d’ACFT Construction.

Spécialisée dans les secteurs d'activités de la mécanique, de la charpente métallique, de la tuyauterie,
de la chaudronnerie et de l’EIA (Électricité, Instrumentation, Automatisme),
ACFT compte devenir une des références normandes dans les domaines de l’étude, de l’ingénierie et de la fabrication.

À présent installés sur 240m² d’espace de travail sur 2 niveaux, composés de bureaux individuels,
de 2 open-spaces et d’une salle de réunion, nous serons heureux de vous accueillir afin d’étudier
ensemble vos projets en cours ou à venir.

À très bientôt !

À noter, notre nouvelle adresse :

2, avenue Marcel Le Mignot, 76700 Gonfreville-L’Orcher

Notre page agence du Havre

Notre page Facebook

Véhicules éléctriques, ACFT se dote de deux Zoé supplémentaires

ACFT se dote de deux nouvelles ZOÉS

Dans sa logique de respect de l'environnement, ACFT Bureau d'études, se dote de deux véhicules électriques supplémentaires, afin d’assurer les déplacements de nos intervenants sur site.

Le succès du véhicule Zoé se confirme, en 2017, 30 000 exemplaires de ce véhicule 100% électrique se sont vendus en Europe. Les infrastructures de chargement se multiplient grâce aux aides de l'état, et les véhicules électriques pourraient commencer à peser un certain poids dans le paysage automobile français à l'horizon 2020.

Selon Renault, les frais en R&D devraient chuter de 40%, par rapport à la Zoe actuelle, et -30% s’agissant de la production, toujours assurée par l’usine de Flins, en France.
A terme, Renault espère proposer sa Renault Zoe 2 à un tarif quasi-équivalent à celui d’un modèle thermique. L’objectif est le même quant au coût d’utilisation sur trois ans.

La Zoe 2 voit sa capacité augmentée, et passe de 300 à 600 km théoriques (Dans la pratique 480) , et des temps de chargement encore plus courts. Petit à petit le véhicule voit son autonomie s’accroître, et pourrait rivaliser avec ses équivalent thermiques d'ici cinq ou six ans.

Vous croiserez peut-être l'un de ces véhicules sur les routes Normandes !

Électrique ou Hydrogène ? Rivalité technologique ou complémentarité ?

L'avenir appartient il à l'hydrogène ou bien à l’électrique ? C’est la question que se posent nombre d'utilisateurs, souvent par manque d'informations. En fait les deux technologies sont complémentaires, et à terme devraient être utilisées de concert. La différence entre un véhicule électrique et un véhicule à l'hydrogène se situe simplement au niveau du stockage. Dans le cas de la voiture électrique : C'est la batterie chargée qui stocke le courant, pour alimenter le véhicule. Dans le cas du véhicule à hydrogène : C'est une pile à combustible qui assure la production de courant.

Sur la route et en ville, ces véhicules ne polluent pas  :

C'est le gros avantage de ces technologies, à l'heure où les médias relayent le message d'alerte lancé par les scientifiques au sujet du très préoccupant réchauffement climatique. L'utilisation généralisée de ces véhicules permettraient aux villes de ne plus avoir à souffrir de la pollution due aux micro particules du diesel, ou bien des vapeurs d'essence. De même, sur route ces deux types de voiture ne rejettent aucun polluant dans l'atmosphère, le gain en terme d'empreinte carbone semble donc acquis en ce qui concerne les déplacements.

En revanche, la production actuelle d'électricité à grande échelle ainsi que d'hydrogène, continue de produire de très grosses quantités de CO2, des efforts sont encore à faire dans ces domaines. On ne peut pas prétendre utiliser un véhicule propre lorsque la prise qui va le recharger utilise une électricité issue d'un process employant le pétrole ou le charbon. Le but est de supprimer la pollution de manière globale, pas de la déplacer en périphérie des villes et des routes. Mais les technologies d'améliorations des différents process de production verte sont en cours de recherche, et pourraient donner de très bons résultats d'ici cinq à dix ans. A terme, cela aura pour effet de provoquer une baisse significative des émissions de CO2 dans l’atmosphère.

Sur le temps de chargement, et l'autonomie :

 

Les véhicules électriques, sur batterie devront attendre plusieurs heures suivant le système auxquels ils seront raccordés pour se charger. L'autonomie actuelle, est en moyenne de 300 km à pleine charge, et l'arrivée des nouvelles batteries, devrait pousser ce chiffre à 500 km. Ce qui commence à se rapprocher des véhicules thermiques classiques. Attention cependant, les batteries n'aiment pas l'hiver et le froid. Il faut noter que le chauffage, et les phares tirent plus de courant, et sollicitent la batterie réduisant, de facto, l'autonomie initiale.

 

Les véhicules équipés de pile à combustible (hydrogène) se chargent dans les mêmes délais qu'un véhicule thermique classique, et offrent une autonomie effective de 700 km (très proche d'un diesel).
Le seul hic, c'est que les piles à combustible sont hors de prix, en effet, leur fabrication nécessite l'utilisation de ...Platine, un métal aussi cher et rare que l'or. Ce dernier point entraîne fatalement un surcoût des véhicules à hydrogène qui avoisine un prix à l'achat de l'ordre de 77 000€, hors bonus. D'un point de vue économique et pratique, la voiture à hydrogène, n'est pas encore adaptée à tous les budgets, et la rareté de ses points de ravitaillement, pénalise encore son déploiement. Les batteries quant à elles fonctionnent au lithium, beaucoup moins cher que le platine, il fait également partie des métaux rares et convoités par les industriels de nombreux secteurs.

Les prolongateurs d'autonomie de batterie :

Afin de pallier au problème d'autonomie des batteries, le groupe Renault et d’autres acteurs du secteur automobile, ont trouvé un moyen simple et efficace, qui pourrait devenir incontournable :
Le prolongateur d'autonomie. Ce dispositif, encore en phase de test chez des clients, se décline en différentes versions : Le TENDER, et le Symbio Fcell.

-1 Le "Tender"

Développé par EP TENDER, le dispositif est un générateur qui se présente sous la forme d'une petite remorque

Dans le cas du Tender, la petite remorque accroché à la ZOÉ, contient un petit générateur électrique qui actuellement fonctionne à l'essence. L'autonomie de la batterie d'une ZOÉ de première génération, peut voir sa capacité poussée jusqu'à 700 km. Le générateur consomme 8,5 L par heure de fonctionnement, et s'utilise surtout sur les trajets routiers à vitesse soutenue, et en ville le véhicule repasse en mode  100% électrique. Le constructeur planche actuellement sur un modèle d' EP Tender utilisant une batterie auxiliaire, et imagine une autre version avec une pile à hydrogène, afin d'obtenir un véhicule 100% vert.

http://eptender.com/

 

-2 Le Symbio FCell

Le dispositif intègre directement une pile à combustible dans le véhicule électrique existant :

Sur  le Renault Kangoo ZE H2,, Symbio, va directement ajouter son système de pile à combustible et son réservoir à hydrogène dans les partie disponibles du véhicule sur batterie. Ici, on reste sur de l'hydrogène, utilisé dans le cas de longs déplacements, et l'on repasse sur batterie pour une utilisation urbaine. Pour le moment seuls les véhicules appartenant à des flottes d'entreprises, sont concernés, l'utilisation sera adaptée aux particuliers horizon 2020.

https://www.symbio.one/

Le monde des transports entre dans une nouvelle ère.

Batteries avec prolongateurs pour les voitures, piles à hydrogène pour les trains et les camions ?

Dans la catégorie poids lourds, la transition vers le tout électrique est en marche, là aussi chacun des grands constructeurs a sa propre vision et son propre concept. Mais comme l’heure est à l’innovation, les petits nouveaux comme TESLA ou Nikola Motor se dressent face aux grands noms historiques tels que Volvo, ou Daimler.

TESLA a choisi la batterie au lithium, conférant à son Truck « Semi », une autonomie de 800 km théorique, avec 30 min de chargement via les superscharger TESLA pour atteindre 80% d’autonomie. L’e-truck de Mercedes Benz, affiche des performances très inférieures, mais ne joue pas dans la catégorie des poids lourds qui effectuent de longues distances. Avec 200 km d'autonomie, le véhicule électrique du groupe DAIMLER restera essentiellement destiné à des applications en milieu urbain. Volvo choisi également la voie de la batterie au lithium, avec son FL Electric, et marche dans les pas de DAIMLER en affichant une autonomie de 300 km pour son camion. A la vue des performances affichées par les constructeurs traditionnels, TESLA se démarque loin devant.

Un concurrent de TESLA, Nikola MOTOR apporte une solution alternative avec un poids lourds dont la batterie serait alimentée par une pile à combustible : Le NIKOLAONE. Les performances pour ce type de véhicule seraient très au-delà de ce que la formule avec batterie serait en mesure de produire. Avec 1900 km d’autonomie, le Nikolaone, pourrait couvrir de très longues distances sans recharge. Dans le domaine des poids lourd, il semblerait que les moteurs électriques alimenté par une pile à combustible (l’hydrogène) auraient une bien meilleure efficience énergétique que les véhicules équipés de simples batteries.

Et enfin, le premier train à hydrogène a été livré par Alstom en basse saxe. Le Coradia iLint, présente des caractéristiques techniques semblables à celles d'un train classique roulant au diesel. avec des pointes de 140 km/h, il peut embarquer 300 passagers. Le fonctionnement du système est gérer grâce aux algorithmes, qui prennent en charge la gestion des flux d'énergies, entre la pile à combustible et les batteries, le système récupère même l’énergie dégagée par le freinage. Véritable innovation technologique, ce premier modèle a été commandé en 64 exemplaire en Allemagne et en Autriche. Dans le reste de l'EU, et notamment en France, l'idée de généraliser l'utilisation de ces train du futur sur les voies ferrées fait son chemin.

Des technologies très prometteuses, encore à leurs débuts

Les véhicules sur batteries, tout comme les véhicules à hydrogène, verront accroître leur autonomie au fil des ans, voire rejoindre et dépasser les capacités des actuels moteurs thermique. La diminution des coûts de production des batteries et et des piles à combustibles est à l'étude. Pour les batteries au lithium, il serait question de remplacer celui ci par du sodium dont la production et la rareté ne seraient plus un problème. De même pour le platine, des chercheurs planchent sur un projet visant à le remplacer par du fer, qui serait 200 fois moins cher. Une fois ces technologies acquises, les prix unitaires des véhicules devraient atteindre des tarifs abordables pour que les professionnels du transport puissent remplacer leur flotte de véhicules par du tout électrique.

Crédit photos : Fotolia, Shutterstock, Dissolve, EP Tender, Symbio, turbosquid, Adobe Stock