Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 484 résultats.
Offre d'emploi
Consultant en Machine Learning H/F
Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)
12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Offre d'emploi
Tech Lead Snowflake
Publiée le
Apache Airflow
AWS Cloud
Snowflake
2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Offre d'emploi
Développeur - Expert IAGEN4DEV _ Le Mans
Publiée le
Angular
Java
Kubernetes
3 mois
40k-45k €
450-500 €
Le Mans, Pays de la Loire
Télétravail partiel
En lien avec l’équipe cœur qui sera toujours à la manœuvre, la mission devra s’articuler autour des tâches suivantes : Choix de la solution : Parmi les solutions du marché et dans le respect des contraintes de sécurité et de souveraineté du groupe, choisir la solution cible qui sera à terme déployée sur les postes des développeurs. Des benchmarks, tests et études seront menées pour déterminer le ou les choix de solutions. Accompagnement et formation : Organiser a minima 5 sessions de formations à destination des développeurs du groupe pour leur mettre à disposition la solution retenue et leur inculquer les bonnes pratiques associées à l’IA. L’équipe Socles IA et l’équipe coeur seront associées à la démarche d’animation globale du dispositif. Les sessions sont envisagées par vagues de 20 développeurs pour un total de 100 développeurs augmentés en 2026. Expertise et support aux utilisateurs : Les utilisateurs équipés seront susceptibles de solliciter l’équipe support. Les analyses des questions, les réponses et les solutions apportées utiliseront le canal dédié de l’équipe (à organiser sur l’espace Jira du support). Pilotage, mesures et documentation : Au cours de la mission, des supports sur étagères seront construits afin de proposer aux développeurs des supports accessibles en selfcare (e-learning, bibliothèque de prompts). La construction d’un module d’assesment à deux niveaux (basique / avancé) sera étudiée. Plus globalement, un dispositif de suivi et de mesure des indicateurs issus des actions engagées tout au long du projet devra être créé et piloté. Approfondissement de 2 à 3 sujets : En 2026, deux à trois sujets de transformation ou de modernisation seront approfondis, avec l’appui d’un cabinet conseil. Une participation active à ces chantiers sera organisée, sous la responsabilité de l’équipe coeur. Veille : Une veille active sur les évolutions de l’IAGEN4DEV et les perspectives possibles pour le groupe sera organisée : exploration des solutions agentiques, MCP. Compétences par périmètre technologique : Environnement/Système Linux, Conteneur, Kubernetes/Openshift IDE Intellij / VsCode Outil de gestion de versions GIT Méthodes et Architectures MVC, API REST, Evènementiel Autres outils Jira, Confluence, Jenkins, SonarQube, ELK, Dynatrace, Bruno Front (Web) : Technologie Web HTML, CSS, Javascript, TypeScript Framework Angular Outils NPM, Node.js Autre Serveur Apache HTTP Back/Batch (Java) : Technologie Web JEE, JMS, JDBC, JUnit, JAXB, JAX-RS, JAX-WS, JPA, CDI Framework Java, JEE, Spring Batch, Quarkus BDD Oracle, PostgreSQL, DB2(SQL) Serveur d’application Wildfly, Quarkus Outils Maven
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Offre d'emploi
Data Steward (H/F)
Publiée le
Data governance
1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Offre d'emploi
Développeur C# .Net Expérimenté
Publiée le
.NET Framework
Ansible
Design pattern
Strasbourg, Grand Est
Télétravail partiel
Dans ce rôle, vous travaillerez dans l'un de nos IBM Consulting Client Innovation Centers (Delivery Centers), où nous fournissons une expertise technique et industrielle approfondie à un large éventail de clients des secteurs public et privé dans le monde entier. Nos centres de livraison offrent à nos clients des compétences et une expertise technique locales pour stimuler l'innovation et l'adoption de nouvelles technologies. Une carrière chez IBM Consulting s'appuie sur des relations à long terme et une collaboration étroite avec des clients du monde entier. Vous travaillerez avec des visionnaires dans de multiples secteurs pour améliorer le parcours du cloud hybride et de l'IA pour les entreprises les plus innovantes et les plus précieuses au monde. Votre capacité à accélérer l'impact et à apporter des changements significatifs pour vos clients est rendue possible par notre écosystème de partenaires stratégiques et nos plateformes technologiques robustes à travers le portefeuille IBM ; y compris Software et Red Hat. La curiosité et la recherche constante de connaissances sont les fondements de la réussite au sein d'IBM Consulting. Dans votre rôle, vous serez encouragé à remettre en question la norme, à rechercher des idées en dehors de votre rôle et à trouver des solutions créatives qui auront un impact révolutionnaire pour un large réseau de clients. Notre culture de l'évolution et de l'empathie est axée sur l'évolution de carrière à long terme et les opportunités de développement dans un environnement qui prend en compte vos compétences et votre expérience uniques.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Scrum Master - AI (Text-Mining)
Publiée le
AI
Machine Learning
Python
6 mois
480-570 €
Paris, France
Télétravail partiel
Assurer le rôle de Scrum Master pour les équipes de projets d'IA, en garantissant le respect des principes et des bonnes pratiques Agile. Animer la planification des sprints, les réunions quotidiennes, les rétrospectives et les revues. Collaborer étroitement avec les data scientists, les ingénieurs en apprentissage automatique et les analystes métier. Favoriser l'amélioration continue et promouvoir une culture agile au sein de l'équipe. Assurer la coordination avec la direction et les parties prenantes afin d'aligner les objectifs et les livrables du projet.
Mission freelance
Responsable Office bureautique H/F
Publiée le
Office 365
12 mois
400 €
Saint-Denis, Île-de-France
Télétravail partiel
Offre Responsable Office bureautique 1.1 Objectifs Au sein de la Direction Services Numériques aux Utilisateurs, piloté par le responsable des offres Office, cette prestation consiste à assister au quotidien le responsable d’offre Office dans la gouvernance, le pilotage et la maintenance de l’offre Office Bureautique. Elle s’appuie sur le pôle Veille pour tenir à jour une feuille de route des évolutions fonctionnelles et techniques à venir. Elle analyse ces dernières pour les proposer aux utilisateurs en fonction de leur intérêt métier tout en s’assurant de leurs conformités avec la PGSSI (Politique Générale de Sécurité des Systèmes d'Information Groupe). Elle coordonne leurs mises en œuvre en s’appuyant sur la MOE Poste de Travail pour la gestion des configurations techniques, les déploiements sur les postes de travail Windows et la MCO et sur le pôle Adoption pour l’accompagnement des utilisateurs et des métiers. Elle répond aux questions fonctionnelles et techniques posées par les utilisateurs et aux escalades du support de niveau 2 O365. Elle valorise ces connaissances en rédigeant des consignes pour les supports et en communiquant au travers de contenus rédigés par le pôle Adoption sur les médias mis à disposition (portail O365 et communautés Viva Engage). Le cas échéant, elle escalade les incidents fonctionnels à Microsoft. Les incidents techniques (déploiement et automatisation des process) sont quant à eux escaladés à la MOE Poste de Travail. Elle suit le provisionning des licences M365 pour les différents profils (usages mobilité et bureautiques) et rationalise leur utilisation dans le cadre du programme Pilot’R (libération des licences dans les cas de sans ou peu d’usage). Elle optimise et simplifie les process de demande de service avec de l’automatisation et le portail ITSM afin d’améliorer l’expérience utilisateur. Elle élabore, met à disposition et maintient des tableaux de bord pour suivre l’activité du service et simplifier les process de facturation internes. 1.2 Description détaillée des tâches qui constituent la mission Dans le cadre de la prestation, le prestataire devra réaliser ou piloter la réalisation, sans que cela ne soit exhaustif, les tâches suivantes : - Représenter l’offreur sur différents projets liés aux évolutions des usages bureautiques (BYOD, IA, etc…), - Qualification des nouvelles versions M365 Apps - Pilotage des Offres Office & amélioration des processus (reporting et automatisation) - Suivi des déploiements & études diverses - Suivi du provisionning et rationalisation des licences clients riches (Pilot’R) - Participer à la comitologie du service - Ouvrir, contribuer au traitement, suivre et clôturer les demandes et tickets auprès de notre fournisseur et partenaire Microsoft - Suivre les incidents et les demandes de l’assistance de niveau 1 et 2 en tant qu’assistance de niveau 3 ainsi que des utilisateurs dans l’outil de ticketing - Participer aux études d’impacts des évolutions des services liés au changement des produits Microsoft 365 ; - Participer à l’automatisation des processus de l’équipe - Produire la documentation technique et fonctionnelle ou les consignes nécessaires aux supports
Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Mission freelance
Développeur Full Stack Python/Django/Flask - Expert Frontend Angular/React
Publiée le
Angular
Interface Homme-Machine (IHM)
Python
6 mois
400-450 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rejoignez l'équipe "Développements Tactiques" au sein de la Direction Fast Delivery Solutions. Cette équipe transverse est spécialisée dans la création rapide ( mode commando ) de solutions applicatives innovantes pour l'ensemble des métiers de l'entreprise, notamment autour de l'exploitation de données complexes et de la mise en œuvre de cas d'usage d' Intelligence Artificielle Générative . Votre Mission Principale Vous êtes le spécialiste des interfaces utilisateur. Votre mission principale est de concevoir et développer des Interfaces Homme-Machine (IHM) de haute qualité pour exploiter les traitements de données et les modèles d'IA développés par l'équipe. Vous serez également amené(e) à prendre en charge le développement d'applications complètes (Full Stack) de bout en bout, en mode agile et autonome. Vos Responsabilités Conception Frontend : Développer des interfaces utilisateur dynamiques et réactives avec un framework moderne ( Angular, React ou Vue.js ).(Majeur) Développement Backend : Concevoir et développer la partie serveur des applications en Python (avec Django ou Flask ).(Mineur) Intégration : Assurer la bonne communication entre le Frontend et le Backend via l'intégration d' API RESTful . Proximité Métier : Interagir directement avec les utilisateurs finaux pour recueillir, challenger et traduire leurs besoins en solutions fonctionnelles. Qualité & Performance : Optimiser les applications et garantir la qualité du code (tests unitaires et fonctionnels, documentation). Innovation : Participer à la veille technologique et proposer des solutions innovantes.
Offre d'emploi
Ingénieur(e) Traitement d'image - Optronique - Marseille - H/F
Publiée le
40k-50k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Nous sommes un bureau d’études de référence dans le domaine de la vision optronique , basé à Marseille. Depuis plus de vingt ans, notre structure a développé une expertise reconnue dans la conception de solutions de vision sur mesure pour des secteurs variés : défense, aéronautique, sécurité, transports, sport, cinéma, médical, etc. Afin d’accompagner notre croissance et renforcer notre équipe R&D spécialisée en traitement et analyse d’image, nous recherchons un(e) Ingénieur(e) en Traitement d'image . Vous intégrerez une équipe passionnée, à taille humaine, réunissant des profils pluridisciplinaires où innovation, exigence technique et esprit d’initiative sont au cœur de chaque projet. Votre rôle sera central dans la conception d’algorithmes avancés, l’optimisation de pipelines de vision et le développement de solutions embarquées à forte valeur ajoutée. Missions Missions principales Concevoir, développer et optimiser des algorithmes de traitement et d’analyse d’image pour des systèmes de vision innovants. Mettre en œuvre des modèles de machine learning et deep learning (CNN, SVM, descripteurs…) adaptés aux contraintes optroniques. Intégrer, tester et valider des solutions de vision sur des plateformes embarquées ou PC. Assurer la mise au point et l’optimisation de chaînes de traitement vidéo (flot optique, projections 3D, filtrages avancés…). Participer à la conception et au développement d’architectures logicielles performantes en C/C++ et/ou Python. Missions annexes Participer aux revues techniques et apporter un soutien aux équipes projets. Contribuer à la veille scientifique et technologique dans les domaines IA, traitement d’image, GPU computing. Prendre part à l’amélioration continue des méthodes et des outils internes. Proposer et développer des projets personnels à fort potentiel d’innovation.
Mission freelance
Lead Developer (React/Typescript/Angular) - (H/F) 75/59/69
Publiée le
Angular
Large Language Model (LLM)
Migration
3 mois
Paris, France
Télétravail partiel
Contexte Au sein d’ un leader Cloud , la Unit a pour mission de développer et d’intégrer les outils IT qui soutiennent la digitalisation du parcours client . Vous rejoindrez une squad dédiée à la stack et à l’architecture de la console d’administration des produits et services — un environnement stratégique et en constante évolution. Mission Dans le cadre de la modernisation de la plateforme, la mission consiste à poursuivre la migration de la stack actuelle AngularJS vers React / TypeScript . À ce jour, environ 30 % de la codebase a déjà été migrée (ainsi que tous les nouveaux produits). Vous contribuerez à : Finaliser la migration technique vers la stack React/TypeScript ; Améliorer et moderniser les interfaces utilisateur vieillissantes pour certains produits ; Participer à la conception et au maintien des librairies de composants React mutualisées ; Collaborer avec les équipes produit afin d’assurer la cohérence technique, fonctionnelle et visuelle. Innovation & Intelligence Artificielle Un POC prometteur a récemment été mené autour de l’usage de l’IA agentique dans le processus de migration : Génération du plan de migration par un agent LLM , Exécution automatisée des migrations de features, Intervention humaine pour affiner et valider le résultat final selon des standards précis. Le consultant aura donc un rôle clé dans la poursuite et l’industrialisation de cette approche innovante. Une solide compréhension des principes de l’IA et de son application dans un contexte de développement logiciel assisté par agent est indispensable.
Mission freelance
228999/Développeur Fullstack / Python - Grenoble
Publiée le
Javascript
Python
6 mois
300-330 £GB
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Développeur Fullstack / Python - Grenoble - Participer au développement d'un système de chatbot. - Responsable de la concéption des composants front et back du système, garantissant une exp utilisateur fluide et des fonctionnalités back robustes. - Mise en oeuvre d'interfaces conversationnelles et intégration de mécanismes de retour d'informations. - Travaille principalement en Python pour le back-end et en JavaScript pour le front, en s'appuyant sur des frameworks LLM de pointe pour créer des solutions de chatbot intelligentes et conviviales Objectifs et livrables Améliorer et étendre l'architecture full-stack existante pour des applications de chatbot Développer des composants front-end adaptés aux mobiles Optimiser et développer des services back-end en Python pour gérer la gestion des dialogues, l'intégration des API et la persistance des données Développer des mécanismes de collecte des retours utilisateurs et enregistrer ces informations dans le système de gestion des données Travailler en collaboration avec des chercheurs en IA pour traduire des exigences en solutions techniques Documentation de la conception du système, code source et API pour une maintenance évolutive future Compétences demandées BASE DE DONNÉES Avancé Programmation Python Confirmé JAVASCRIPT Confirmé Langues Niveau de langue Anglais Intermédiaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
484 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois