L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 852 résultats.
Offre d'emploi
Ingénieure ou ingénieur en Data science - ALTERNANCE
█ █ █ █ █ █ █
Publiée le
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer / Développeur Java Full Stack
AVA2I
Publiée le
Angular
API REST
AWS Cloud
1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F
Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab
12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Mission freelance
Architecte Solution Cloud-Native
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
450-530 €
Paris, France
Contexte de la mission Au sein du département Urbanisations et Applications de la Direction des Systèmes d'Information (DSI) de notre groupe audiovisuel français, nous gérons une quarantaine d'applications couvrant divers domaines, tels que la planification, l'optimisation des ressources, la gestion des incidents, et bien d'autres encore. Avec la transition de nos infrastructures IT vers le Cloud, il est devenu essentiel de faire évoluer nos modèles d'architectures logicielles afin de répondre efficacement aux besoins des différentes directions métiers. Nous recherchons une expertise en architecture solution pour travailler en étroite collaboration avec notre architecte d'entreprise. Cette mission est cruciale pour assurer l'alignement de nos projets IT avec les exigences fonctionnelles et l'écosystème de France Télévisions. La personne retenue devra proposer des modèles d'architectures logicielles Cloud-Native et en assurer la mise en œuvre. Objectifs et livrables Moderniser nos infrastructures IT afin de garantir une meilleure efficacité de nos projets. Proposer des modèles d’architectures logicielles Cloud-Native adaptés à nos besoins spécifiques. Piloter la mise en œuvre des principes d'architecture au sein des projets en cours. Collaborer avec les équipes projets, Cloud, sécurité, réseaux et exploitation pour concevoir des architectures sur mesure. Fournir des modèles et templates de développement, notamment à travers GitLab-CI. Accompagner et conseiller les équipes projet lors de l'implémentation des architectures. Superviser les développements pour assurer leur cohérence avec le modèle architectural défini. Assister l'Architecte d'Entreprise dans les travaux de la Design Authority et déployer ces architectures sous forme de standards et normes de développement.
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Mission freelance
Expert SQL Sénior / Data Engineer DBT
Signe +
Publiée le
Google Cloud Platform (GCP)
5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Offre d'emploi
Data Analyste
OCTOGONE
Publiée le
Data analysis
1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre d'emploi
Technicien support de proximité référent H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
28k-33k €
Paris, France
Ce qui vous attend : Au sein d'un grand groupe de l'aéronautique défense nucléaire, sur un périmètre sécurisé nous recherchons un Technicien de proximité Référent H/F - Une formation de 6 mois à Bruyères-le-Châtel (91) est prévue en amont de votre prise de poste. • Assurer le support technique de proximité aux utilisateurs • Diagnostiquer et résoudre les incidents matériels et logiciels • Garantir la continuité de service et la qualité des interventions • Traiter, suivre et escalader les tickets via les outils ITSM • Mettre à jour la CMDB après chaque intervention • Appliquer et améliorer les procédures et modes opératoires • Communiquer de manière claire, proactive et confidentielle • Informer le manager des incidents, risques et difficultés • Participer aux réunions, formations et projets • Assurer un reporting et une qualité de service exemplaires Contrat : en CDI Localisation : prestation de client grand compte à Paris 15 - Une formation de 6 mois à Bruyères-le-Châtel (91) est prévue en amont de votre prise de poste. Télétravail : Non Client : grand compte de l'Aéronautique / Défense / Nucléaire Référence de l'offre : buujwyv8q9
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Mission freelance
Administrateur Système, Sauvegarde et réseaux
QUALIS ESN
Publiée le
Linux
NetBackup
6 mois
310 €
Lille, Hauts-de-France
Mission Administrateur systèmes RUN : • MCO/MCS Linux (RHEL 6,7,8 9 // Ubuntu) • MCO/MCS vSphere 7,8 • MCO Windows 2012, 2016, 2019 • MCO Trend Micro • Traitement des CGC (MEQ/MEP) • PRTG (installation des équipements, configuration des sondes) • Gestion des demandes et des incidents N2/N3 • Rédaction des procédures pour le N1/N2 • Astreinte DSI (bureautique et industriel) • MCO/MCS Sauvegarde – Netbackup 9.1/10.1.1 BUILD : Linux/DevOps • Optimisation du renouvellement des licences • Mises à jour des serveurs RHEL (planification, communication, analyse d’impact, mise en œuvre) • Correction des vulnérabilités • Mise en place SFTP, NFS, ansible • Ansible • Installation et configuration • Déploiement SIEM, EDR • Uniformisation des déploiements • Gestion de l’installation et configuration des nouveaux serveurs • Patch Management, Changement DNS, redémarrage • Script supervision personnalisé DevOps : • Mise à jour du code GIT pour le site web Ilévia, création pipeline, déploiement application ArgoCD • Rancher, ArgoCD, Harbor, Git, Jenkins Sauvegarde - Netbackup • Analyse, conseil, audit sur l’infrastructure • Mise en place sauvegarde immuable - worm • Changement de la robotique (LTO 6/7 > 9) • Rédaction des documentations techniques et des procédures
Offre d'emploi
Chef de projet MOE DATA (Tableau)
Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software
1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Offre d'emploi
Ingénieur/Administrateur système et réseau H/F
HAYS France
Publiée le
Orléans, Centre-Val de Loire
Vos missions sont les suivantes : Assurer la sécurité informatique : garantir l'application des politiques de sécurité, prévenir les risques, superviser les dispositifs de protection et assurer la continuité de service. Gérer et superviser le réseau : assurer le bon fonctionnement, la disponibilité et l'optimisation des infrastructures informatiques. Garantir l'administration des systèmes : mettre en œuvre, configurer et maintenir les serveurs, postes de travail et environnements associés. Maintenir une amélioration continue : proposer et déployer des solutions innovantes pour renforcer la performance, la fiabilité et la sécurité du système d'information. Former et assister les utilisateurs.
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Offre d'emploi
Ingénieur Virtualisation Poste de Travail - H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
50k-60k €
Guyancourt, Île-de-France
La mission consiste à intégrer, au sein du pôle End User Experience (EUX), l'équipe Build Virtualisation, ayant pour responsabilité de définir les infrastructures, et prendre en charge la production des plateformes de virtualisation postes de travail et applicative. Cette mission s'inscrit dans le cadre du maintien en condition opérationnel des environnements virtuels : Développements, Intégration, Pré Production et Production de nos différents clients et de l'ensemble des outils nécessaires aux fonctionnements des solutions : Citrix Virtual Apps and Desktop, Nutanix, VMWare, Netscaler, Director, SCCM, etc... Vous allez participer à la conception et à la mise en œuvre des infrastructures, à la mise à disposition des produits et des applications dans un cadre de cohérence technique et opérationnel ainsi que dans le respect des normes Groupe en matière de sécurité : • Réaliser l'installation des infrastructures, le paramétrage et la validation des composants. • Mettre en œuvre les évolutions matérielles et logicielles (Gestion de l'obsolescence) • Packager et publier les applications métiers et/ou techniques. • Rédiger les procédures et la documentation (dossier d'exploitation, architectures, présentations techniques, mises à jour des référentiels documentaires, ...). • Réaliser l'outillages nécessaire au bon fonctionnement et à la maintenance des plateformes et des services associés • Intervenir en escalade N3+ dans la résolution d'incidents majeurs ou significatifs, capitalisation sur l'incident et force de proposition dans le cadre de l'amélioration • Accompagner la mise en place des projets transverses, lors des phases de cadrage et tout au long du cycle de vie du projet : documentation, préconisations des choix de solutions, anticiper les risques et des alertes, veille au respect des normes, intégrer un volet exploitation et réaliser le BUILD to RUN associé • Travailler en collaboration avec la ligne Product Management et les architectes transverses du Pôle End User Experience • Identifier et étudier les innovations techniques et nouvelles offres des fournisseurs en collaboration avec les Product Managers Référence de l'offre : cfsv0q4vu4
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Réforme de l’assiette sociale
- Recherche d'un avocat spécialisé en droit des affaires ou en droit des contrats
- Passage to freelance
- Demande d’avis – majoration CFE après cessation d’activité
- Projet d’enseignement création de parcours de formation/centre formation
- Déclaration TVA suite dépassement plafond
5852 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois