Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 590 résultats.
Freelance

Mission freelance
Data scientist

Publiée le
Apache Spark
Hadoop
PostgreSQL

6 mois
510-540 €
Courbevoie, Île-de-France
Télétravail partiel
Vous aurez l’opportunité de contribuer à un projet d’envergure : le déploiement massif de bornes de recharge pour véhicules électriques dans les parkings collectifs. Ce programme, déjà en cours, se renforce et constitue une nouvelle équipe de 3 Data Scientists, intégrée à une équipe pluridisciplinaire d’une dizaine de personnes dédiée à la mobilité électrique et aux solutions de demain. Vos missions : - Réaliser des études statistiques et de la modélisation prédictive pour optimiser les déploiements, - Traiter et analyser des données massives en Python (un peu de R possible, mais non indispensable), - Collaborer avec des experts métiers et techniques pour transformer les données en leviers concrets de performance, - Participer au Comité Data interne pour partager les bonnes pratiques et enrichir vos compétences, - Évoluer dans une méthodologie SAFe, au cœur d’un environnement structuré et collaboratif.
Freelance
CDD

Offre d'emploi
Data Engineer AWS H/F

Publiée le
Ansible
AWS Cloud
Docker

12 mois
40k-55k €
440-550 €
Île-de-France, France
Télétravail partiel
Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.
Freelance

Mission freelance
Sénior DevOps Engineer

Publiée le
AWS Cloud
Python
Terraform

1 an
100-600 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet stratégique de transformation digitale, nous recherchons un Senior DevOps Engineer (AWS / Terraform) pour renforcer une équipe plateforme en charge de fournir un environnement cloud fiable, sécurisé et évolutif. L’objectif est de concevoir, industrialiser et maintenir une plateforme cloud (AWS) qui permettra aux équipes tech de déployer et faire évoluer leurs applications de manière rapide, sécurisée et autonome. 🔧 Responsabilités principales : Concevoir des modules Terraform avancés (réseau, sécurité, compute, données…) selon les meilleures pratiques AWS. Mettre en place une architecture multi-comptes AWS (Control Tower, gouvernance, IAM, SCP). Définir des modèles d’architectures types pour les applications serverless, conteneurisées (EKS/ECS) et classiques (EC2). Développer et maintenir les pipelines CI/CD (GitLab CI, Jenkins) avec intégration des politiques de sécurité, de test et de qualité. Gérer la surveillance, les alertes, les logs et la traçabilité (CloudWatch, Prometheus, Datadog, OpenTelemetry…). Renforcer la sécurité de l’environnement cloud (IAM, KMS, chiffrement, gestion des secrets…). Accompagner les équipes internes dans la migration des workloads on-premise vers AWS. Participer à l’automatisation de tâches répétitives via scripting Bash / Python / Terraform. Contribuer au support de niveau 2/3, à la gestion des incidents et aux post-mortems.
Freelance
CDD

Offre d'emploi
Développeur DevOps Sénior GCP

Publiée le
DevOps
Google Cloud Platform (GCP)
Java

1 an
50k-60k €
450-500 €
La Défense, Île-de-France
🎯 Objectifs de la mission : Intégré(e) à l’équipe IT Compute en charge de la plateforme stratégique de calcul de risque interne, vous contribuerez à la transformation cloud (GCP/AWS) d’un système critique, dans un environnement agile et DevOps à dimension internationale (Paris, Londres, Hong Kong, New York). 🔧 Responsabilités principales : Maintenance et développement ponctuel de microservices pour la plateforme de calcul de risque. Participation active à l’architecture cloud GCP (et ponctuellement AWS). Gestion des tests automatisés, de la documentation et de la mise en production. Surveillance de la performance, résilience, scalabilité et sécurité des composants. Participation au support applicatif et aux astreintes. Interaction avec les équipes produit, architecture et production dans un cadre agile (Scrum/DevOps).
Freelance
CDI

Offre d'emploi
Expert IA (ChatGPT)

Publiée le
AI
Automatisation
Conception

1 an
La Garenne-Colombes, Île-de-France
Télétravail partiel
Nous recherchons un ** Expert en Intelligence Artificielle (IA) spécialisé ChatGPT dans la **conception, le développement et le déploiement d’assistants conversationnels internes de type ChatGPT** pour les entreprises. Le candidat idéal aura une solide expérience en **IA générative**, **traitement du langage naturel (NLP)** et **intégration d’outils LLM (Large Language Models)** dans les environnements professionnels afin d’automatiser les processus, améliorer la productivité et renforcer la gestion des connaissances internes. Responsabilités principales : * Concevoir et développer des **assistants IA internes (ChatGPT-like)** adaptés aux besoins spécifiques de l’entreprise. * Intégrer le modèle IA avec les systèmes internes (SharePoint, CRM, ERP, bases documentaires, intranet, etc.). * Gérer la **fine-tuning** ou la personnalisation de modèles de langage (OpenAI, Azure OpenAI, Anthropic, Llama, Mistral, etc.). * Garantir la **sécurité, la confidentialité et la gouvernance des données** utilisées par l’IA. * Collaborer avec les équipes métiers pour identifier les cas d’usage pertinents (support interne, RH, IT, juridique, formation, etc.). * Surveiller la performance du chatbot et proposer des optimisations continues. * Assurer une **veille technologique active** sur les innovations en IA générative, NLP et automatisation intelligente. Compétences techniques requises : * Maîtrise des **modèles de langage (LLMs)** et des API (OpenAI, Azure OpenAI, Hugging Face, etc.). * Solides connaissances en **Python**, **LangChain**, **RAG (Retrieval-Augmented Generation)**, et intégration API. * Expérience avec les frameworks IA : **TensorFlow**, **PyTorch**, ou équivalents. * Maîtrise des outils de vectorisation de données et de bases vectorielles (FAISS, Pinecone, ChromaDB, etc.). * Connaissance des **architectures cloud (Azure, AWS, GCP)** et de leurs services IA. * Bonne compréhension des enjeux de **sécurité et confidentialité** dans le contexte IA.
Freelance

Mission freelance
Senior DevOps Engineer (Python, Jenkins, Ansible, Shell, AWS)

Publiée le
AWS Cloud
DevOps
Python

6 mois
550-660 €
Paris, France
Télétravail partiel
Qualifications / Compétences requises Licence ou Master en informatique, génie logiciel ou domaine connexe. Au moins 8 ans d'expérience en tant qu'ingénieur DevOps et au moins 4 ans en projets centrés sur les données. Vaste expérience en développement Python démontrant une solide maîtrise de la création d'applications évolutives. Expertise approfondie des pratiques DevOps et des pipelines CI/CD pour optimiser les processus de déploiement. Expérience en infrastructure as-code. Excellentes compétences collaboratives, avec la capacité à traduire des exigences utilisateurs complexes en solutions techniques efficaces. Bonne maîtrise de l'anglais, car la documentation sera rédigée en anglais et une partie des utilisateurs de la plateforme de données ne parlent pas français. Plus : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience en développement produit agile et en méthodologie Scrum. Maîtrise des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell. AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … DevOps : Jenkins, SonarQube, Conda, Ansible… Logiciels : Python, Rust est un plus.
CDI
Freelance

Offre d'emploi
Data Engineer Azure & Databricks

Publiée le
Apache NiFi
CI/CD
Data Lake

6 mois
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail partiel
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Freelance

Mission freelance
Data Analyst / Lead Dataiku

Publiée le
Dataiku
Microsoft Power BI
Python

1 an
100-600 €
Paris, France
Télétravail partiel
Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.
Freelance

Mission freelance
POT8625-Un Data Analyste sur Lille

Publiée le
Python

6 mois
240-350 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste sur Lille. Compétences attendues : Python, Tableau BI, Tableau Prep Builder, savoir gérer une typologie de données. Almatek recherche pour l'un de ses clients Un Data Analyste sur Lille. Compétences attendues : Python, Tableau BI, Tableau Prep Builder, savoir gérer une typologie de données. Almatek recherche pour l'un de ses clients Un Data Analyste sur Lille. Compétences attendues : Python, Tableau BI, Tableau Prep Builder, savoir gérer une typologie de données.
Freelance

Mission freelance
POT8623-Un Data Engineer sur Lille

Publiée le
Python

6 mois
240-360 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lille. Missions: Poursuivre / Finaliser le développement d'une infrastructure de gestion de données (collecte, stockage, traitement) sur AWS, incluant la sécurité de l'infrastructure et des données. Services AWS utilisés : S3, Lambda, Glue. Développement Infra as Code avec CDK et Transcript. Stockage des codes sur GitHub Enterprise. Déploiement avec GitHub Action. Maitriser la manipulation de données n'est pas la compétence la plus critique => donc bien maitriser le coté AWS, mais pas forcément sur Data. Data Engineer ou Cloud Engineer, compétences AWS, DevOps, Python
Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/Dagster

Publiée le
Apache Spark
PySpark
Python

2 ans
40k-79k €
400-650 €
Paris, France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Freelance

Mission freelance
Expert PowerBI

Publiée le
PowerBI
Python
Sap BO

12 mois
420-530 €
Île-de-France, France
Secteur aviation Mission : intégrer l’équipe Datahub Factory du siège , afin d’épauler l’équipe déjà en place à livrer plus rapidement les solutions de dashboard demandées par les besoins métier . Le candidat doit être capable de créer et de proposer des solutions de dashboard PowerBI (et/ou Spotfire) en parfaite autonomie, en fonction des besoins métier à la suite du cadrage. Nous souhaitons une personne qui ait une « sensibilité data », qui sache modéliser (qui maîtrise le modèle en étoile) et qui connaisse SQL (ou le python) . Il doit être également capable d’assurer une permanence, au moins 2 jours par semaine, sur site. Profil : Expert Power BI Nombre d’années d’expérience : + de 5 Attendu : Analyse des besoins métier – Comprendre les objectifs, définir les indicateurs clés (KPI) et structurer les modèles de données. Collecte et préparation des données, nettoyer et transformer les données. Création de rapports et tableaux de bord – Concevoir des visuels interactifs, ergonomiques et adaptés aux utilisateurs. Optimisation et performance – Assurer la rapidité, la fiabilité et la sécurité des rapports (gestion des accès, gouvernance des données). Publication et automatisation – Déployer les rapports sur le service Power BI, gérer les espaces de travail, planifier les actualisations automatiques. Formation et accompagnement – Former les utilisateurs finaux, documenter les solutions et assurer un support continu. Compétences Techniques : SQL, SAP BusinessObjects, Une très bonne connaissance de Power BI est obligatoire, Une expérience en Spotfire peut être un plus Softskills : Autonomie, capacité à conduire des projets en direct avec les métiers (cadrage, chiffrage, pilotage, communication et conception) mais également accompagnement des métiers afin de les faire monter en compétence, Engagement, communication, organisation, méthodologie, curiosité, forte autonomie, Rigueur et bonne capacité de synthèse pour remonter au responsable du Data café les informations nécessaires au suivi de l’activité de l’équipe, Proactivité et anticipation Anglais : Oui, obligatoire, niveau intermédiaire
Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France
Télétravail partiel
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Freelance

Mission freelance
Ingénieur Ops Data Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille/co

Publiée le
Kubernetes
Python

12 mois
400-450 €
Lille, Hauts-de-France
Télétravail partiel
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication
Freelance

Mission freelance
Ingénieur Intégration Cloud-  Expert Observabilité /SRE

Publiée le
Python
Scripting

18 mois
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Dans le cadre d’un programme de refonte des applications monétique et paiements vers un modèle d’architecture cloud natif, La Direction Technique est chargée de la construction et la mise à disposition de l’offre d’infrastructures qui en sont les fondations techniques. des produits Dans ce cadre, la direction technique recherche un Expert en observabilité, Ingénieur d’intégration de type SRE en MISSIONS La prestation s'effectuera au sein du pôle « Architectures et solutions techniques ». Les objectifs de la prestation sont : • Accompagné les ME projet sur la mise en place des solutions d’observabilité applications dans le cloud et sur le legacy. • Être support N3 des ME en cas de bug ou anomalie sur ces solutions • Mettre à disposition des métiers les outils d’exploitation • Assurer les installations et les montées de version des solutions Promtail, Loki, Grafana , Instana • S’assurer du bon paramétrage des solutions d’observabilité et les adapter aux exigences du client • Être force de proposition sur l’architecture des solutions (robustesse/ résilience) et leur optimisation en performance • Préparer et suivre avec les équipes projets & de production, les mises en des dashboard / rapport / supervisons. • Rédiger et maintenir les documentations techniques (spec, scénarios de test/ bench, etc) et d’exploitation des solutions • Assurer la relation avec le supports externe IBM sur ces produits (Open et IBM) • Réalisation de bench et communication des résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service TTIS avec des cas d’usage à destination des fabrications • Fiabilité & Disponibilité : Assurer la haute disponibilité des solutions et mettre en place des stratégies de reprise après sinistre (PRA - PUPA) • Performance & Optimisation : Analyser et améliorer les performances des solutions en partenariat avec nos équipes métiers. • Automatisation : Concevoir, maintenir et déployer des solutions d’automatisation pour le provisioning, la mise à jour et la gestion des solutions. • Sécurité & Conformité : Mettre en œuvre les meilleures pratiques de sécurité pour la protection des données et assurer la conformité avec les réglementations en vigueur. • Observabilité : Développer des outils et des tableaux de bord pour surveiller la santé des solutions et prévenir les incidents. • Collaboration DevOPs : Travailler avec les équipes techniques et métiers pour améliorer les processus CI/CD et garantir la fluidité des déploiements. • Gestion des incidents : Diagnostiquer et résoudre rapidement les problèmes liés aux solutions d’observabilités pour minimiser l’impact sur nos clients et utilisateurs. RÉSULTATS ATTENDUS Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet Défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continue. • Être support des ME en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers entre la DT et les métiers. • Affirmer et défendre les patterns d’architecture choisi par la DT TTIS. • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations d’optimisation des solutions et de leur config. • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein du pôle AST et des équipes projets. • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage COMPETENCES ATTENDUES Compétences et expériences nécessaires • Excellente maitrise de Grafana , Prometheus, Loki , promtail - Administration avancée et Tuning • Maitrise de l’optimisation de requêtes SQL et la gestion des index • Maitrise des architectures de haute disponibilité • Systèmes Linux, RedHat & Réseaux • Maîtrise et expérience des technologie liées aux architectures de conteneurisation (Kubernetes / Docker / ArgoCD / Harbor / Istio / CI/CD – GIT / Mirantis …) • Gatling, K6, Loadrunner, SOASTA Cloud Test, Jmeter, etc. • Maîtrise du fonctionnement d'un système réseau sous Linux. • Maîtrise des architectures réseaux distribuées et résilientes • Méthodologies agile / Sprint • Experience Performance Testing & QA • Capacité en vulgarisation des technologies cloud • Connaissance générale de l’architecture applicative • Bonne compréhension des concepts DevOps et des pipelines CI/CD • Compétences en scripting (Python ,Bash,Yaml …) pour l’automatisation des tâches. • Anglais Souhaitées : • Expériences bancaires et/ou moyens de paiements , ou grand groupe. • Expérience de l’écosystème et de l’organisation • Connaissance du domaine fonctionnel de la monétique et des paiements • Connaissance des procédures liées à la gestion des incidents, problèmes et changements Compétences comportementales • Dynamisme, proactivité, autonomie • Leadership naturel • Ecoute, dialogue et communication avec les partenaires internes / externes • Appétence à l’amélioration continue • Esprit de service et pédagogue • Charisme avec aisance relationnelle et rédactionnelle • Force de proposition • Curiosité / appétence à découvrir et intégrer de nouveaux concepts, nouvelles technologies • Plus de 10 ans d’expérience en technologies Cloud. NIVEAUX REQUIS POUR LA PRESTATION • Niv 3 : Expérience avérée dans l’administration des solutions d’observabilité, dans les outils d’automatisation cloud.
Freelance

Mission freelance
Data Engineer (localisation à PAU / 2j de tt max)

Publiée le
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Contexte : L’objectif est de renforcer les capacités d’ingénierie de données pour améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles. Objectifs et livrables Objectifs de la mission : Définir les processus de gestion de données et d’information des outils digitaux du métier forage puits. Contribuer à la gouvernance des données (modélisation, documentation, standardisation). Développer et maintenir des pipelines de données robustes et automatisés. Développer et maintenir des outils de contrôle qualité des données (dashboards, alerting, audits). Participer à l’intégration de solutions IA / IA Générative pour des cas d’usage métier. Activités principales : Extraction, transformation et chargement de données issues de sources variées (structurées / non structurées, temps réel / historiques…). Développement de scripts et outils en Python (ou équivalent) pour l’automatisation des traitements. Mise en place / supervision de solutions IA / IA Générative (développées en interne ou customisées à partir d’outils du marché). Participation à la conception de modèles de données logiques et physiques. Mise en place / maintenance d’outils de suivi de qualité des données forage-puits (données real time WITSML, données WellView…), qui pourraient être développés en interne ou customisés sur la base d’outils du marché, pour des besoins spots ou pleinement automatisés et industrialisés. Définition du processus ‘data management’ pour l’outil de gestion de données real time : analyse du processus actuel, proposition d’améliorations et mise en place de ce nouveau processus, en collaboration avec l’éditeur de la solution. Définition, mise en place, puis supervision des tâches admin liées aux outils digitaux du métier forage-puits. Support aux utilisateurs métiers et accompagnement au changement.
590 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous