Le 6 Octobre 2023 au Palais des Congrès, 1 Rue du Maréchal Foch, 22700 Perros-Guirec

A propos

Code d’armor est heureux de vous proposer un nouveau DevFest sur la côte de granit rose !

1 track + 7 talks
                    

Depuis maintenant plus de 11 ans, Code d'Armor organise des conférences techniques. En 2021 nous avons décidé d'organiser un DevFest à Perros Guirec, et vu le succès : 120 participants la première année, et plus de 200 la deuxième, nous sommes ravis de préparer la 3ème édition le 6 octobre 2023.

Après la cyber-sécurité, et l'éco-conception, l'IA, Intelligence Artificielle, sera à l'honneur cette année.

Profitez d'une belle journée de conférences avec un concentré d'IA dans l’intimité du palais des congrès de Perros-Guirec, face à la plage de Trestraou pour profiter de la vue mer.



Palais des congrès, 1 Rue du Maréchal Foch, 22700 Perros-Guirec

Aftermovie

Speakers

  • Tugdual Grall

    Tugdual Grall

    Tugdual Grall, est Solutions Engineer chez GitHub, où il accompagne les développeurs dans leur utilisation de GitHub et des pratiques DevOps/DevSecOps.
    Avant de travailler chez GitHub, 'Tug', était, DevRel chez Redis, Directeur du Product Management chez Red Hat, Technical Evangelist chez MapR, MongoDB et Couchbase. Tug a également travaillé comme CTO chez eXo Platform, et comme Product Manager et Développeur sur la platform JavaEE d'Oracle.
    Tugdual est également co-fondateur du Nantes JUG (Java Users Group) qui réunit tous les mois depuis 2008 les développeurs et architectes de la région nantaise.

  • Julien Salvi

    Julien Salvi

    Into the Android world for 10 years, I experienced California the startup way of life before coming back to France. I am currently a Lead Android Engineer at Aircall where we are building the best phone system for modern businesses. Alongside Android, I have a great interest in backend development with Kotlin and AR/VR technology. In 2021, I became an Android GDE to continue my journey to always share and learn with the Android community. On my spare time, I am a world traveler and a beer lover always looking for the best IPAs!

  • Eléa Petton

    Eléa Petton

    Etudiante pendant cinq ans à l'école d'ingénieurs ISEN Brest, je suis diplômée en octobre 2022 en tant qu'ingénieur généraliste avec une coloration Intelligence Artificielle (IA).
    L'IA est un domaine qui me passionne et dans lequel je me spécialise en intégrant la TEAM AI Solutions d'OVHcloud en tant que Machine Learning Engineer.
    Je travaille sur trois produits d'OVHcloud dédiés à l'entraînement et au déploiement de modèles d'IA : AI Training, AI Notebooks et AI Deploy. Mon rôle est de créer des verticaux sur ces produits sous différents formats pour les utilisateurs de la plateforme.

  • Stephane Cauchy

    Stephane Cauchy

    Host leader du Laboratoire d’expérimentation digitale (LED) de BPCE-SI, incubateur sur les nouveaux usages, pratiques et outils au service d’une édition logicielle toujours plus performante. Auteur du livre 'Etre agile par nature' qui retrace les débuts de la transformation agile chez BPCE. Près de 40 ans d'expérience, spécialiste de l'agilité d'entreprise et coach d'organisation.

  • LIU Yung

    LIU Yung

    Après quelques années passées chez des éditeurs de solutions logiciels internationaux, j ‘ai rejoint le groupe BPCE où j’ai pu exercer différentes fonctions autour du développement logiciels d’application bancaire. Actuellement, je me concentre avec mes équipes sur les opportunités de mise en œuvre des nouvelles technologies, RPA, Low Code, IA, ... pour améliorer l’expérience de nos clients et de nos collaborateurs.

  • Thomas Fournaise

    Thomas Fournaise

    Passionné d'informatique et de développement depuis longtemps, je suis passé par les équipes projets, l'architecture et l'urbanisme d'entreprise avant de bifurquer vers l'IA et la Data. Je me passionne pour tous les sujets liés aux données, aux biais, à l'IA et à l'éthique. Depuis 2016, j'organise le Salon de la Data à Nantes.

  • Julie Rabette

    Julie Rabette

    Je fais partie de l'équipe nokia qui travaille sur le remplacement d'algo 'classique' de la couche L1 uplink de la 5G/6G par du deepLearning. Nous travaillons actuellement sur la mise en place de notre propre converteur pour faire de la QAT sur les modèles avant de les intégrer sur accélérateur HW spécifiques.

  • Alexandre Lou

    Alexandre Lou

    Aujourd'hui ingénieur MLOps chez Nokia, j'ai commencé en tant que stagiaire sur des problématiques Machine learning. Dans la continuité de ces travaux, je contribue à la création d'environnements dédiés aux projets

  • Renaud Allioux

    Renaud Allioux

    Renaud Allioux est le co-fondateur et Chief Innovation and Future technologies de Preligens, une entreprise spécialisée dans l'Intelligence Artificielle au service de l'armée et du renseignement militaire. Après avoir réalisé une thèse au CNES, il a poursuivi son aventure chez Airbus.
    En 2016, il a créé Preligens avec son associé Arnaud Guérin. Leur IA est capable de détecter des modèles de blindés, d'avions ou de drones à partir d'images satellites. L'entreprise a levé 23 millions d'euros, signé des contrats avec 5 pays, et compte plus de 180 salariés. Ils ont également ouvert des filiales dans plusieurs pays.

Programme

Time Slot Description
8h45 Ouverture des portes -
9h00 Intro -
9h15
Renaud Allioux

Les développeurs à l'heure de l'IA
Preligens
Si l'actualité récente met en valeur certaine rupture autour des large langages models, les évolutions technologiques liées à l'IA ont changé en continue le métier de développeur depuis plusieurs années. Que ce soit travailler grâce à l'IA ou travailler pour faire de l'A les développeur.e.s sont plus que jamais au cœur de la machine. Sans ingénierie informatique la science de la donnée et la recherche en IA n'est que du concept et du PoC. Comment va évoluer le métier ? Impossible à dire, mais nous pouvons déjà analyser les changements des dernières années et essayer d'en tirer quelques conclusions.
10h15 Surprise -
10h30 Café -
10h45
Thomas Fournaise

Faut-il réguler les algorithmes ? Clairement non !
Nickel
L'intelligence artificielle est de plus en plus présente à nos cotés pour nous aider à prendre des décisions mais régulièrement on entend dire qu'elles prend de mauvaises décisions ou qu'elle est sont biaisée. La solution qui est souvent évoquée est de réguler les algorithmes. Mais qu'est ce que cela veut dire et est ce réellement la bonne solution ? Plongeons ensemble dans les biais liés aux données et aux algorithmes, regardons ce que propose l'IA Act ou la directive sur la responsabilité des IAs et essayons de voir quel rôle ont les développeurs pour faire de meilleures intelligences.
11h30
Stephane Cauchy LIU Yung

Le développeur augmenté chez BPCE année 1
BPCE-SI
Octobre 2022, lors du précédent devfest nous découvrons l'IA générative et GPT3. Plein d'enthousiasme, nous retournons au bureau avec l'intuition qu'une révolution était en marche et que nous devions monter dans le train. Octobre 2023, 1 an après des résultats visibles :
  • - les développeurs BPCE SI font du pair programming au quotidien
  • - Des analystes utilisent un chatbot pour connaître le fonctionnement du SI
  • - Les opérations lourdes de migration de code sont facilitées
Nous sommes aujourd'hui collectivement convaincu que nous vivons le début d'une transformation significative de nos métiers . Nous souhaitons vous raconter le chemin parcouru en 1 an pour revisiter les méthodes de travail de 2.600 personnes.
12h15 Déjeuner -
14h00
Tugdual Grall

Copilot : L’intelligence artificielle au service des développeurs
Github
Amis développeurs, vous avez besoin:
  • - d’écrire des tests pour vos applications Web/JavaScript ?
  • - de compléter une classe Java d’accès aux données ?
  • - corriger des bugs dans votre code ?
  • - d’ajouter des nouveaux services à votre déploiement Kubernetes, Terraform ?
  • - de comprendre du code que vous découvrez en arrivant sur un nouveau projet ?
Venez découvrir comment GitHub Copilot va vous aider sur ses taches et bien d'autres, et ce directement dans votre IDE favori, et quelque soit votre language de predilection! GitHub Copilot est un outil basé sur le maintenant très connu modèle OpenAI GPT.
Cette présentation s'appuie principalement sur des démonstrations durant lesquelles Tug montre comment il utilise GitHub Copilot pour développer le site https://windr.org . Venez également avec vos questions & retour d'experience si vous utilisez aujourd'hui Copilot: cette session sera interactive!
Tug couvrira également GitHub Copilot X, la vision de GitHub de l'IA et le travaille du développeur.
14h45 Surprise -
15h00
Julien Salvi

Machine Learning sur Android avec ML Kit (sans être expert en IA)
Aircall
Et si je vous disais que vous n'avez pas besoin d'être un.e expert.e en intelligence artificielle ou en machine learning pour apporter certaines de ces fonctionnalités dans vos applications Android.
Dans cette session, nous explorerons ce que ML Kit a à offrir pour ajouter assez facilement des fonctionnalités de machine learning optimisées pour le mobile. En se basant sur des examples de code, nous explorerons les principales API de Vision et Natural Language pour potentiellement débloquer de nouvelles idées dans vos applications.
15h45 Café -
16h00
Julie Rabette Alexandre Lou

Kubeflow pour le MLOps avec Cas d'usage
Nokia
Le MLOps, contraction de Machine Learning Operations, désigne l'ensemble des pratiques mises en œuvre pour automatiser l'entrainement, le déploiement et la maintenance de modèles de machine learning. Ces pratiques permettent notamment de traiter les problématiques de gestion des versions de modèles, de gestion de ressources cloud, ou encore de monitoring.
Ceci nécessite un environnement dédié au ML : une plateforme MLOps. L'automatisation des tâches répétitives et des pipelines permet aux équipes de se concentrer sur l'optimisation des performances des modèles ou l'exploration des données. Kubeflow est une plateforme MLOps qui vise à centraliser les outils ML pour le training, l'optimisation d'hyperparamètres et bien d'autres atouts qui seront présentés durant ce talk.
16h45
Eléa Petton

A quel point devons-nous optimiser nos modèles d'IA ? Testons, évaluons, comparons !
OVHcloud
Dans le domaine du Machine Learning, le concept d'optimisation est au coeur de la création des modèles. Il existe de multiples façons d'optimiser un modèle d'IA en se basant sur divers aspects : précision, performance, explicabilité, latence, consommation énergétique, ...
Durant ce talk nous allons tout d'abord voir pourquoi il est primordial d'optimiser un modèle et quels sont les différentes optimisations possibles. Comment ? Au travers d'un cas d'usage métier pour voir à quel point notre modèle de Machine Learning peut être optimisé.
Dans un premier temps, nous nous intéresserons à la métrique 'phare' : la précision du modèle. En tant que Data Scientist, l'entraînement est notre première étape pour optimiser un modèle de Machine Learning.
Au delà de qualité et de la précision du modèle, il est primordial que ce dernier soit utilisable et déployable en production. Nous devons donc porter attention au temps d'exécution en évaluant à la fois la latence et l'intérêt métier. Pour cela, quoi de mieux que de créer un benchmark en se basant sur un jeu de données de test ?
Nous serons également attentifs à la complexité du modèle et à son explicabilité en nous intéressant au cas d'usage métier.
Ce talk montrera également l'impact écologique des modèles. Nous verrons comment évaluer leur émission de CO2 ou encore leur consommation énergétique.
Mais au final, devons nous tenir comptes de toutes ces métriques ?
17h30 Fin -