Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 545 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur data expérimenté (H/F)

Espace Freelance
Publiée le
AWS Cloud
Databricks
Google Cloud Platform

121 mois
100-550 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur data expérimenté (H/F) Le client recherche un profil expérimenté ayant déjà travaillé avec Airflow et Databricks pour la partie data engineering ainsi que Tableau pour la partie visualisation. Vos principales missions : Migration : connecter les sources de données vers AWS S3 Réalisation de dashboards avec Tableau Travail sur la qualité des données avec Databricks Création de flux de données automatisés avec Airflow

Freelance

Mission freelance
Data Architect

Shift Holding
Publiée le
Architecture
Databricks

6 mois
100-1k €
Lyon, Auvergne-Rhône-Alpes

Data Architect pour Designer des flow de données Capable de comprendre les enjeux Faire des recommandations Développer dans un environnement Databricks et dans le sprojets où l'équipe travaille Travail d'équipe / transverse Des équipes ne sont pas toujours matures avec une roadmap claire Databricks +++ Anglais courant +++ c. c. c. c. c. c. c. c. c c. c. c. c. c. c. c.

Freelance
CDI
CDD

Offre d'emploi
Dev Python Forecasting

Gentis Recruitment SAS
Publiée le
Databricks
Kubernetes
Python

3 ans
10k-80k €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création d'une librairie Python (un SDK) à destination de nos data engineers et de nos data scientists. Cette librairie servira de base à nos équipes Quants pour qu'ils développent des modèles avancés de prévision de la consommation et de la production d'énergie. Le SDK fournira le niveau d'abstraction requis afin d'assurer une séparation claire entre la préparation des données, le développement des modèles (exploration, entraînement) et les besoins en infrastructure sous-jacents. Le profil idéal est : - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) geek qui adore résoudre des énigmes algorithmiques et trouver des solutions élégantes. - Un(e) artisan du code qui sait comment rendre les systèmes scalables et performants. - Quelqu’un qui comprend les enjeux du MLOps et qui a idéalement déjà navigué dans l’univers de Databricks/SageMaker. Le poste requiert une maîtrise avancée de Python, avec une solide expérience dans le développement de librairies et de packages. Une expérience préalable autour de Feature Stores/Model Registries est un plus certain. Contexte XXXX est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

CDI
Freelance

Offre d'emploi
Data Engineer Aws ( H/F ) Lille

Sapiens Group
Publiée le
AWS Cloud
Databricks
Python

1 an
40k-60k €
Lille, Hauts-de-France

Sapiens Group recherche pour le compte de l'un de ses clients basé à Lille un Data engineer Senior disponible sous peu Vos missions : • Vous concevez, alimentez et maintenez les data pipelines, les différents espaces de stockage et leur code source ( IaC) • Vous êtes acteur de la qualité des données que nous servons à nos clients. Pour répondre, vous savez interpréter les données et comprendre les besoins fonctionnels. • Vous êtes acteur de la disponibilité et de la performance des solutions de collecte, transformation, stockage et exposition que vous mettez en place avec l’équipe. • Vous définissez et mettez en place le monitoring adéquate. • Vous formalisez, documentez et généralisez les bonnes pratiques pour accélérer l'apprentissage au sein des équipes travaillant avec les données. • Vous appliquez la data gouvernance et les règles de data management

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark

GRADIANT
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
10k-60k €
Paris, France

Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…

CDI

Offre d'emploi
Data Architect (H/F)

CELAD
Publiée le
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Freelance

Mission freelance
Tech Lead

Enterprise Digital Resources Ltd
Publiée le
Apache Airflow
CI/CD
Java

18 mois
200-500 €
Hauts-de-France, France

Nous recherchons un/une Tech Lead pour un client à Lille. La mission serait: - Être garant de la conception technique conformément aux exigences (fonctionnelles et techniques), - Être garant des options de développement retenues au regard des normes et standards du client, - S’assurer de la qualité des solutions, mesurer cette qualité, alerter sur les non-conformités et valider les solutions définitives - Apporter du support / encadrement pour faire progresser techniquement les développeurs de l’équipe - Définir l’architecture logicielle, design des applications qui lui seront confiées, - Participer à la rédaction de la documentation technique des solutions, - Gestion de 2 équipes.

Freelance

Mission freelance
Data Engineer

SILKHOM
Publiée le
Apache Airflow
Docker
Mongodb

6 mois
100-350 €
Clichy, Île-de-France

Dans le cadre d’une réorganisation et d’une migration des solutions vers du SaaS, nous rechercherons pour notre client un Data Engineer. Vos différentes missions : Votre principale mission sera de concevoir et maintenir l’infrastructure de données, tout en mettant l’accent sur les différents aspects : Utilisation des données pour soutenir notre produit SaaS en standardisant les données. Développement de flux de traitement en tenant compte des exigences d'interface contractuelles. Conception, développement et déploiement de pipelines de données robustes et évolutifs. Mise en œuvre de stratégies de traitement et de gestion des données pour garantir leur qualité, leur fiabilité et leur sécurité. Documentation approfondie des processus et solutions mises en œuvre. Suivi des meilleures pratiques en matière de développement logiciel et d'ingénierie des données. Connaissances approfondies du secteur Retail, notamment dans le domaine du marketing des offres promotionnelles. Garantie du volume, de l'éthique et de la sécurité des modèles de données grâce à une documentation appropriée.

Freelance

Mission freelance
DevOps

INSYCO
Publiée le
Ansible
CI/CD
GitLab CI

20 mois
400-550 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte secteur médias, un DevOps, pouvant répondre à la mission ci-dessous. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à l’adresse [freelance (à) insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence VSE/DEV/4407 dans l’objet de votre mail Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA du client et donner accès aux meilleures solutions d’IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud. ---Responsabilités--- • Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. • Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. • Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. • Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. • Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. • Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.

Freelance

Mission freelance
Ingénieur de production CLOUD/DEVOPS junior 

KEYNAN
Publiée le
Ansible
Grafana
Linux

12 mois
300-350 €
Bordeaux, Nouvelle-Aquitaine

Nous recherchons un profil ingénieur de production CLOUD junior Contexte : Le client recherche un candidat qui prendra en charge le RUN d’une application déployée sur son Cloud. Une bonne expression orale et écrite est requise pour pouvoir traiter les tickets d’incident. Il devra par ailleurs migrer les scripts existants (Ansible, Jenkins) à partir des modèles disponibles. Tâches exercées : supervision et suivi des systèmes d'exploitation (Grafana) suivi et résolution des tickets d’incident remontés migration des scripts de déploiement automatisé existants (Ansible) migration des pipelines CI/CD existantes (Jenkins, GitLab)

Freelance

Mission freelance
devOps

CJI Paris
Publiée le
CI/CD
Intelligence artificielle
Terraform

1 an
100-690 €
Paris, France

Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps. La prestation s’effectue au sein du département DaIA avec une présence à temps complet, et pourra se dérouler en présentiel ou à distance, selon les besoins des équipes. Le candidat choisi devra se sentir pleinement investi de sa mission et motivé par les différents livrables attendus par le service. Compétences requises : Expérience pratique dans la mise en œuvre et la gestion de pipelines CI/CD (Jenkins, GitLab CI, CircleCI, etc.) : EXPERT Solide connaissance des principes de l'infrastructure en tant que code (IaC) et des outils associés tels que Terraform, CloudFormation, Ansible, etc. : MAITRISE Maîtrise des services cloud et expérience dans la gestion d'infrastructures cloud à grande échelle : EXPERT Compétences en scripting et automatisation avec des langages tels que Python, Bash, PowerShell, etc : AVANCE Expérience dans la configuration et l'optimisation des outils de surveillance et de journalisation (Prometheus, ELK Stack, Grafana, etc.) : AVANCE Fortes compétences en communication et capacité à travailler efficacement en équipe : AVANCE

Freelance

Mission freelance
Data Engineer Expérimenté (H/F) – Paris

Espace Freelance
Publiée le
Apache Airflow
AWS Cloud
PySpark

3 mois
100-700 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer Expérimenté (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Python ; AWS ; PySpark ; Airflow ; Github ; anglais courant Votre mission : - Apporter une expertise sur la constitution des datasets et KPIs - Accompagner l’équipe sur les meilleurs choix techniques - Assurer la qualité des traitements et des données - Comprendre un modèle de données et s’en servir - Maitriser et contrôler la qualité de code - Mettre en place des indicateurs de mesure de qualité sur chaque développement REF : EFP/GMCPP/ODVB Plus d’offres sur :

Freelance
CDI

Offre d'emploi
DataOps

K-Lagan
Publiée le
Google Cloud Platform
Terraform

1 an
10k-48k €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) DataOps , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients du secteur assurances, basé en Nouvelle-Aquitaine, Niort. 💻 Technologies : DevOps, CI/CD, Terraform, GCP. 😉 Conditions : 📝 CDI, ASAP. 📍 Niort, Nouvelle-Aquitaine (France). 💰 Rémunération et conditions intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et d'une société international en évolution ! 🎓 Formations personnalisées et suivies de carrières. 💻 Télétravail (mi-temps) 2-3 jours possible, selon intégration et projet client. 👌 Nous offrons : 🤝Contrat à durée indéterminée. 🤝Teambuilding. 🤝Rtt. 🤝Événements festifs organisés par l'entreprise (repas d'été, repas de Noël, journée de solidarité, BBQ, cafés technologiques …). 🤝Suivi régulier. 🤝Formation (technologie, langues, cours de formation, certifications...). Chez K-LAGAN & Kereon, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿

Freelance

Mission freelance
Prestation de développement et intégration

Daweiro
Publiée le
Ansible
Bash
CI/CD

3 mois
850-900 €
Paris, France

Le département Data IA (DaIA) d'une organisation de premier plan dans le domaine des médias et de la télévision est en charge de fournir à ses équipes métiers une infrastructure technologique polyvalente. Cette infrastructure vise à mettre en production et à industrialiser diverses applications basées sur les données et l'IA, tout en facilitant l'accès aux meilleures solutions d'IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud Responsabilités : Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps. La prestation s’effectue au sein du département DaIA avec une présence à temps complet, et pourra se dérouler en présentiel ou à distance, selon les besoins des équipes. Le candidat choisi devra se sentir pleinement investi de sa mission et motivé par les différents livrables attendus par le service.

CDI

Offre d'emploi
Chef de projet DATA

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

48k-62k €
Paris, France

Tu corresponds au/à la Chef de Projet DATA que nous recherchons si tu possèdes une expérience sur les sujets suivants : - 3-5 ans d’expérience sur du pilotage de projet Data dans le Cloud - Maîtrise de l’animation et du pilotage d’équipes sur des projets BI en méthodologie agile et cycle en V. - Gestion de plusieurs projets en parallèle et reporting consolidé dans le cadre d’une gestion de portefeuille projet. - Maîtrise des indicateurs coût / délai / périmètre sur des projets en modalité forfaitaire et assistance technique - Gestion des risques et des remontées d’alertes. - Une certification de gestion de projet et sur le domaine Data d’un des Cloud Providers est un plus. Ton quotidien chez Komeet sera rythmé par : - Le pilotage de tes équipes projet - L’animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec l’architecte. - L’animation de la comitologie projet en tant qu’interlocuteur privilégié de l’ensemble des parties prenantes (client, partenaire, équipe, management). - La participation à la veille de Komeet Technologies.

545 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous