L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 860 résultats.
Mission freelance
Senior Azure IAM Engineer M/W - Gosselies
Publiée le
Microsoft Entra ID
Powershell
3 mois
400-550 €
Gosselies, Hainaut, Belgique
Télétravail partiel
Dans le cadre de ses activité, notre client recherche un Ingénieur IAM Azur senior H/F pour une mission en freelance. Mission Vos missions en tant que tel: * Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). * Supprimer les héritages de droits non souhaités depuis le Management Group Root. * Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. * Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. * Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. * Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. * Documenter les rôles, les règles d’héritage, et les processus d’attribution. * La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité.
Offre d'emploi
Infrastructure Engineer Expert – File Transfer
Publiée le
Scripting
18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Infrastructure, Virtualisation, Reporting, Managed File Transfer, MFT Compétences Technologies et Outils TCP/IP Apache Tomcat AWS Linux VMware SFTP Azure Axway Synchrony Python Windows http PowerShell ServiceNow Méthodes / Normes ITSM ITIL KPI Description et livrables de la prestation La prestation consiste à assurer l’expertise, l’exploitation et l’évolution des plateformes de transferts de fichiers managés (MFT) dans un environnement critique du secteur bancaire & assurantiel. Le prestataire garantit la disponibilité, la sécurité et la performance des flux inter-applicatifs, tout en accompagnant les équipes internes dans la mise en œuvre, la résolution d’incidents complexes, l’automatisation et l’amélioration continue. La mission inclut également la participation aux projets d’intégration, aux montées de versions et à la modernisation des solutions. LIVRABLES 1. Exploitation & Support Suivi et supervision des plateformes MFT Résolution d’incidents N2/N3 et analyses RCA Reporting d’activité et KPI 2. Techniques & Automatisation Scripts d’automatisation Documentation technique (procédures, configurations, runbooks) 3. Projets & Intégration Spécifications techniques Dossiers d’implémentation et de mise en production 4. Qualité & Conformité Mise à jour des procédures ITIL / sécurité Respect des standards internes 5. Transfert de Compétences Sessions de knowledge transfer Supports de formation Expertise souhaitée Maîtrise confirmée des plateformes Managed File Transfer (MFT), notamment Axway Synchrony (Gateway, Integrator, PassPort, Sentinel, CFT, Secure Transport). Compétences avancées sur Stonebranch Universal Agent (UAC, UDM, UEM, UCMD). Excellente connaissance des protocoles de transfert : SFTP, PeSIT. Solides compétences système sur environnements Linux et Windows. Connaissance des serveurs applicatifs : Apache Tomcat, Apache HTTP. Bon niveau en scripting (Shell, PowerShell, Python…). Maîtrise des concepts réseau (TCP/IP), virtualisation (VMware) et Cloud (Azure/AWS). Expérience de l’environnement ITIL et des outils ITSM (ServiceNow). Capacité à résoudre des incidents complexes, sécuriser des flux critiques et industrialiser des processus. Expérience en contexte international et environnement à fortes contraintes opérationnelles.
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
Data Engineer
Publiée le
Data analysis
Microsoft Excel
2 mois
600-630 €
Lille, Hauts-de-France
Télétravail partiel
Mission Temps plein Localisation Lille ou Paris Télétravail : partiel ou full avec quelques déplacements sur Lille Durée 2 mois renouvelable Explications de la Mission Afin de poursuivre l'activité de qualification des BDD en copro et pour mieux prévoir les priorités d'action commerciales, nous avons besoin d'une ressource Data pour effectuer : Le croisement des différentes bases de données en notre possession et en open data disponible Créer une base de données contenant les priorités d'action commerciale "Googeliser" les résidences des BDD nationales Identifier les étiquettes énergétiques (avec GORENOV2) Construire une fiche d'identité par résidence Livrables Attendus Une base de données fusionnée "Googelisation" des BDD Cartographie Objectifs de la Mission Le but de la mission est de pouvoir, à partir du fichier source existant, collecter des données en masses google, afin de pouvoir croiser les données et définir des cibles pour les commerciaux. L'objectif est d'automatiser et industrialiser les outils, afin de sortir d'un traitement manuel.
Offre d'emploi
Consultant Senior VMware Compute
Publiée le
Cisco
Cisco Identity Services Engine (ISE)
Cisco Meraki
2 ans
40k-45k €
400-550 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un Consultant Senior VMware Compute passionné et expérimenté pour rejoindre l'équipe infrastructure de notre client, un acteur majeur du secteur bancaire. Le candidat idéal est un expert des technologies Compute avec une maîtrise indispensable de Cisco Intersight. Le consultant sera responsable de la gestion du cycle de vie complet de l'infrastructure serveur et de la virtualisation, en assurant performance, stabilité et conformité dans un environnement critique. Gestion des Opérations Serveurs : Gérer la livraison, l'urbanisation, le rackage et le câblage des serveurs en collaboration avec les équipes Datacenters. Assurer la gestion du désengagement des serveurs physiques jusqu'à leur sortie des datacenters. Maintenance et Mises à Jour (Firmware/Drivers) : Valider les matrices de compatibilité firmware et drivers. Planifier et suivre les upgrades des firmware et drivers en coordination avec les équipes OS. Virtualisation VMware : Installation, configuration et administration des ESXi . Documentation et Optimisation : Documenter les procédures, configurations et les best practices de l'infrastructure. Participer activement à l'évolution, à l'optimisation et à la mise en œuvre des projets d'infrastructure . Coordination et Suivi : Participer aux réunions de suivis avec les constructeurs.
Mission freelance
Back end Engineer - expert Node/Typescript
Publiée le
Back-end
TypeScript
1 an
400-550 €
France
Télétravail 100%
Nous recherchons un·e Staff Backend Engineer expérimenté·e pour rejoindre notre équipe technique et contribuer à la conception, l’optimisation et la maintenance de nos systèmes backend critiques. Ce poste est ouvert , en full remote , et s’adresse à des profils autonomes, rigoureux et passionnés par les défis techniques à grande échelle. Missions principales Concevoir et développer des APIs et services backend robustes, scalables et sécurisés en Node.js/TypeScript . Optimiser les performances et la fiabilité des systèmes à fort trafic . Architecturer des solutions cloud sur AWS (serverless, microservices, conteneurs, etc.). Intégrer et maintenir des systèmes de paiement, en garantissant la conformité et la sécurité des transactions. Collaborer avec les équipes produit, DevOps et frontend pour livrer des fonctionnalités de qualité. Mentorer les membres de l’équipe et participer à l’amélioration continue des pratiques techniques.
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)
Publiée le
Azure Data Factory
BI
Big Data
12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Mission freelance
Dev Python/Tests techniques H/F NANTES uniquement
Publiée le
Angular
API REST
Openshift
36 mois
480-610 €
Nantes, Pays de la Loire
Télétravail partiel
La prestation consiste à renforcer une équipe qui gère l’homologation technique des applications à destination de nos clients de la banque à distance, par un profil « Consultant Dev/Tests techniques ». Les périmètres d’activités de l’équipe sont : -Valider les exigences non fonctionnelles des applications de la banque à distance (Performance, Charge, exploitabilité, MCO, installation, Scalabilité …) -Identifier les goulets d'étranglement/dysfonctionnements et apporter notre expertise (Améliorations/Préconisations, POC …) -Accélérer le « TimeToMarket » en automatisant / industrialisant nos processus. -Développer des outils techniques transverses -Être en support auprès des « Dev » et des « Ops », partager les bonnes pratiques. Descriptif détaillé de la prestation Sous pilotage du TeamLeader et des responsables intégration, la mission consiste à contribuer/enrichir le portail d’outillage transverse existant portée par l’équipe et réaliser des tests techniques sur les applications et infrastructures conteneurisées exploitées par la plateforme Client. L’activité de l’équipe est pilotée par la méthodologie Agile (Mode hybride Kanban/Sprints). Les activités de ce futur collaborateur seront les suivantes : Sur l’activité de développement (contribution au portail d’outillage) : Suivant les sprints, cette activité représentera 50 à 75 % du temps du collaborateur : -Prendre connaissance du backlog -Réaliser le développement des fonctionnalités (FO/BO) -S’assurer de la qualité avant les MEP (Recette fonc./technique) -Effectuer la relecture, validation des PR / Contribuer à la documentation -Être contributeur/force de proposition Environnement technique : Angular v19, Python 3.12, Flask, API, bitbucket, VisualStudio, Jenkins, XL-Deploy, Confluence/JIRA Sur l’activité « Tests techniques » : -prendre connaissance du changement et de son contexte technique -contribuer au plan de tests proposé (Stratégie de tests) -préparer les infrastructures de tests -réaliser les tests techniques sur des serveurs distribués -réaliser les différents tests sur Néoload -analyser les résultats -contribuer au diagnostic en cas de dysfonctionnement -rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production -constituer ou mettre à jour le patrimoine de tests réutilisables pour les intégrations ultérieures -effectuer le reporting vers le Responsable Intégration -contribuer à l’amélioration continue en particulier sur l’activité tests -Industrialiser les tests via des PIC.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Data Engineer Python Azure
Publiée le
Azure
Databricks
PySpark
12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Offre d'emploi
QA Engineer Sénior - Cypress (h/f)
Publiée le
Cypress
Salesforce Commerce Cloud
Salesforce Sales Cloud
1 an
55k-62k €
450-550 €
Paris, France
Télétravail partiel
Intervenir au sein de la Digital Factory d’un client majeur du secteur de l’énergie et accompagner une équipe Scrum en garantissant la qualité des livraisons sur un périmètre applicatif stratégique, En tant que QA Engineer Sénior spécialiste en Cypress (h/f) , vous serez responsable de la stratégie de test et de la qualité de bout en bout des applications de votre périmètre. Vous évoluerez dans un environnement Agile et contribuerez activement à l’amélioration continue. Vos principales missions : Définir et piloter la stratégie de tests en Agile. Réaliser les recettes fonctionnelles et techniques des applicatifs. Être garant de la recette de bout en bout . Exécuter, suivre et documenter l’ensemble des cas de tests. Respecter les process IT relatifs à l’activité de test, assurer traçabilité et documentation. Mettre en place et exécuter des campagnes de non-régression via Xray. Maintenir les scénarios de test et jeux de données au fil des évolutions. Contribuer activement à l’ automatisation des tests avec Cypress. Fournir les indicateurs nécessaires au suivi des campagnes de tests.
Offre d'emploi
Data Engineer IA
Publiée le
21 621 €
Lavaur, Occitanie
Télétravail partiel
En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
860 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois