Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 435 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur Système et Réseau

CITECH
Publiée le
Bash
Cisco
NetApp

12 mois
50k-60k €
400-450 €
Marseille, Provence-Alpes-Côte d'Azur

🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure dans un environnement à très haute disponibilité ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Ingénieur Systèmes & Réseaux (H/F) pour renforcer l’équipe Infrastructure de l’un de nos clients majeurs dans le secteur de la billetterie en ligne. 🎟️ 🙌🔽 Vos missions seront les suivantes : 🔽🙌 🔸 Superviser et maintenir en condition opérationnelle des infrastructures critiques 🔸 Optimiser les performances serveurs pour absorber des connexions massives simultanées 🔸 Gérer la scalabilité et les files d’attente sur des systèmes à forte charge 🔸 Mettre en œuvre des actions préventives avant les pics d’affluence 🔸 Assurer un monitoring avancé et intervenir en cas de surcharge 🔸 Proposer des ajustements d’architecture, y compris en environnement cloud

Freelance

Mission freelance
Dev Fullstack

MLMCONSEIL
Publiée le
Ansible
Java
Jenkins

6 mois
330-460 €
Paris, France

Pour le besoin de mon client, je suis à la recherche d'un développeur expérimenté ( > 5 ans d’expériences) Connaissances de technologies requises : JAVA, VUEJS, ODS Connaissances de technologies optionnelles : Python, Jenkins, Sonar, Ansible .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... ....

Freelance

Mission freelance
Data Analyst / Lead Dataiku

INFOTEL CONSEIL
Publiée le
Dataiku
Microsoft Power BI
Python

1 an
100-600 €
Paris, France

Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.

Freelance
CDI

Offre d'emploi
Data Engineer AWS/Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

24 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Freelance

Mission freelance
Expert Dataiku / Data scientist - Anglais

KEONI CONSULTING
Publiée le
Dataiku
Microsoft Access
Python

18 mois
100-450 €
Paris, France

CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : DATA Compétences Technologies et Outils Access dataIKU Python VBA MISSIONS La mission principale consiste à aider notre équipe à migrer les requêtes existantes relatives à la fiabilité des données depuis ACCESS/VBA vers un projet Dataiku, ainsi qu'à développer une interface utilisateur personnalisée. De plus, le consultant aidera l'équipe à se familiariser avec l'outil et apportera son expertise en matière de bonnes pratiques d'utilisation et de gouvernance de la plateforme. Projet/applications Dataiku pour la fiabilité des données commerciales (placement, comptabilité technique et processus de réclamation). Pour certaines migrations d'outils ACCESS actuellement sur un serveur informatique central (projet ATLAS), nous souhaitons passer d'ACCESS à Dataiku. Afin de mener à bien cette migration avant la fin de l'année, nous avons besoin d'un développeur expert de la plateforme Dataiku.

Freelance

Mission freelance
Tech Lead Data Databricks AWS

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

6 mois
550-600 €
Paris, France

Dans le cadre de l’évolution d’une plateforme data existante de niveau entreprise, nous recherchons un Tech Lead Data Engineer pour renforcer une équipe agile internationale. L’environnement est déjà en place – il s’agira de l’optimiser, l’industrialiser et l’étendre à de nouveaux cas d’usage analytiques 🎯 Vos missions principales : ✅ Faire évoluer la plateforme Data existante (Datawarehouse & pipelines) ✅ Implémenter & gérer le Unity Catalog sur Databricks ✅ Développer et maintenir des workflows complexes sous Airflow ✅ Structurer les bonnes pratiques d’ingénierie sur AWS ✅ Garantir la robustesse, la scalabilité et la gouvernance des données ✅ Collaborer avec des profils anglophones sur des projets critiques

Freelance
CDI

Offre d'emploi
Architecte/ Data Engineer Dataiku

VISIAN
Publiée le
Apache Kafka
Dataiku
Dynatrace

2 ans
40k-84k €
460-720 €
Guyancourt, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Senior expert sur de l'architecture des Data Platforms sur du Dataiku/Kafka vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la Data Platform - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Data Platform - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Base de données de type Sql/NoSql - Kafka - Dataiku - Scripting Python/SQL/Java - Suite Elastic - Zabbix - Dynatrace Attendus Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Automatiser les installations des socles techniques - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles pour prise en compte des flux de données

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Big Data
FastAPI
PySpark

12 mois
330-440 €
Lyon, Auvergne-Rhône-Alpes

Description de l'équipe Concevoir, développer et exploiter des produits, services et études innovants pour accompagner les acteurs internes et externes vers la transition écologique en contribuant à l’insertion des VE et des ENR. Activité principale Traitement de données, analyses statistiques Modélisation, création d’algorithmes, machine learning Production de rapports, d’études, de présentations techniques et restitutions aux commanditaires. Accompagnement des développeurs pour l’intégration du modèle dans une application informatique. Activité secondaire Suivi des évolutions méthodologiques en data science appliquée aux réseaux électriques Optimisation des modèles existants

Freelance
CDI

Offre d'emploi
Business Analyst - Intelligence Artificielle

NSI France
Publiée le
Apache Airflow
Business Analysis
Python

3 ans
Paris, France

Vos missions principales seront les suivantes : Assistance à Maîtrise d’Ouvrage : Organiser et animer les ateliers de recueil des besoins auprès des utilisateurs métiers. Analyser, modéliser et proposer des optimisations des processus existants. Rédiger les documents de cadrage et de qualification : études de faisabilité, chiffrage, analyse des risques, impact, et planning. Formaliser les processus et besoins fonctionnels en vue de leur développement. Rédiger les spécifications fonctionnelles détaillées. Élaborer les plans de test et accompagner les phases de recette. Accompagner les utilisateurs dans l’adoption des nouveaux outils et usages. Pilotage opérationnel : Participer à la coordination et au suivi de l’avancement des projets. Assurer le pilotage des projets dont vous avez la charge, en collaboration avec les développeurs (équipe SmartAutomation), le DataLab, les équipes API et autres parties prenantes. Superviser et réaliser les recettes techniques. Piloter les recettes fonctionnelles jusqu’à la mise en production des solutions automatisées. Réaliser un reporting régulier à la cellule de coordination projet. Maintenance et évolutions : Contribuer à la bonne tenue opérationnelle des solutions déployées. Participer aux évolutions fonctionnelles et techniques du parc applicatif existant.

Freelance

Mission freelance
Data Engineer (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
100-420 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Au sein de la direction DATA, nous sommes à la recherche d'un profil Data Engineer pour contribuer aux opérations de développement d'un projet DATA sous un environnement Google. Les missions attendues par le Data Engineer (H/F) : Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données ETL / ELT - Maîtrise du Shell - Connaissance du langage Python et de l’ordonnanceur Airflow - Excellentes connaissances du SQL et des grands principes de modèle de données - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif - Compétences : SQL : Expert GCP Big Query : Confirmé GCS & google cloud function : Confirmé Pyhon/Shell : Confirmé

CDI

Offre d'emploi
Ingénieur Infrastructure - Support Cloud

METALINE SERVICES
Publiée le
Ansible
Apache Airflow
Gitlab

Seine-Saint-Denis, France

Les missions du poste Dans le cadre d’une mission pour l’un de nos clients, nous recherchons un Ingénieur Infrastructure pour intervenir au sein de l’équipe Automation Lab , dans le domaine Support Cloud . Vous serez chargé de résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud opérés par l’orchestrateur BPM ( IBM Business Automation ) et/ou IBM Cloud, en assurant un suivi efficace et une collaboration étroite avec les équipes techniques. Vos missions Suivre et traiter les demandes sur le portail IBM Cloud (Cloud dédié) Gérer les incidents clients et assurer l’accompagnement sur leur résolution Identifier et débloquer les demandes via l’orchestrateur Documenter les anomalies et rédiger les modes opératoires Contribuer à l’amélioration continue des processus Environnement technique Cloud & Orchestration : IBM Cloud, BPM ( IBM Business Automation ), Terraform, Schematics Automatisation : Ansible, Python, GitLab, Airflow Systèmes : Linux Red Hat, Windows Server, VMware ESX, Kubernetes, IKS Réseaux & Sécurité : TCP/IP, TLS/SSL, ICMP, LDAP, PKI, OpenSSL, GPG/PGP, X509 Bases de données & Middleware : MySQL, Java, SCCM Scripting : Shell, PowerShell

Freelance
CDI

Offre d'emploi
Ingénieur Ops / DevSecOps

JPG Consulting Partners
Publiée le
Gitlab
Google Cloud Platform (GCP)
Python

4 mois
Hauts-de-Seine, France

Description et livrables de la prestation Dans le cadre de la mise en place du programme AppSec assisté par l’IA, notre client est amené à faire évoluer les services et outils de développement et leur usage par les équipes de développement d’applications. Nous recherchons un profil senior Ops / DevSecOps pour intégrer l’équipe DevTools Factory qui fonctionne en mode Agile (Scrum Team avec des sprints de 3 semaines). Missions : ● Mise en place et mise à jour de l’infrastructure des services Gitlab Ultimate, Artifactory, Sonar au sein de l’équipe Devtools Factory: o Automatiser (IaC) l’installation de l’infrastructure des services dans le Cloud public (GCP principalement et AWS) o S’assurer de la scalabilité de l’infrastructure lié à l’usage du DevSecOps et de Gitlab DUO (Gitlab et ferme runners) o Réaliser des mises à jour régulières de ces outils pour bénéficier des nouvelles fonctionnalités et corrections o Mise en place d’outils/scripting pour l’exploitation et opérations o S’assurer de l’intégration dans un framework de monitoring/Alerting Dynatrace o Mettre à jour la documentation des installations automatisées o Actualiser le dossier d’exploitation pour le support L2/L3 ● Mise en place d’outils/scripting pour la mise à disposition des services, avec l’intégration DevSecOps et l’assistance de l’IA au développement o Mise à jour de l’outillage Gitlab pour la gestion des ressources (projets, groupes, users, RBAC, compliance framework, security policy at scale (MR, scanner, pipeline), Gitlab DUO, ...) o S’assurer de la gestion des secrets dans Vault et de leur rotation o Mise à disposition des services aux autres plateformes : Catalogue Service Now, Gitlab DUO, JIRA, CICD plateforme interne o Déploiement de solution zéro trust sur les outils au travers de zcaler/ztna ● Support : Faire le support de ces services o Intervention sur incidents o Mise en place de post mortem après tout problème important o Communiquer auprès des IS dès qu’il y a un problème important o Support des devops sur problématique projets o Support des security champions sur la gestion des vulnérabilités et remédiation dans l’outils Gitlab Livrables : ● Automatisation des infrastructures : IaC, documents (diagrammes, readme) ● Code d’outillage des services ● Support (documents, howto, eDEX)

Freelance

Mission freelance
Ingénieur Observabilité confirmé – Environnement Cloud & DevOps

KUBE Partners S.L. / Pixie Services
Publiée le
Datadog
Google Cloud Platform (GCP)
Python

3 mois
400-550 €
Lille, Hauts-de-France

Bonjour, Pour le compte d’un client grand groupe, je recherche un ingénieur Observabilité pour une mission longue durée. Mission Renfort au sein de l’équipe Observability (Engineering Productivity) pour améliorer la qualité de service à travers les outils et pratiques d’observabilité (métriques, logs, traces, alertes, dashboards). Vous serez autonome sur plusieurs projets, dans un environnement international. Objectifs et livrables Maintien et tests des stacks Terraform Développement en Python ou Go (API, composants OpenTelemetry) Support technique et configuration avec les utilisateurs Déploiements sur différents périmètres Participation au RUN Formation et accompagnement des utilisateurs Automatisation des déploiements Mise en conformité avec les standards internes Définition des bonnes pratiques Audits de conformité Création de dashboards (Control Towers) Rédaction et mise à jour de la documentation Contexte agile, environnement international. Bon niveau d’anglais requis. Environnement technique -Datadog, OpenTelemetry, Splunk, Solarwinds, PagerDuty -Python ou Go -Kubernetes -Cloud : GCP ou AWS -Bonne compréhension des logs, métriques et traces Compétences requises -Expertise : Observabilité -Confirmé : Datadog, Python, Google Cloud, Kubernetes, AWS, Go, Terraform -Élémentaire : Splunk -Langue : Anglais courant Si votre profil correspond, merci de postuler avec un CV à jour et je vous reviendrais rapidement

Freelance

Mission freelance
Expert windows / Devops

AVALIANCE
Publiée le
Administration Windows
Jenkins
Powershell

3 ans
400-600 €
Fontenay-sous-Bois, Île-de-France

Nous recherchons pour notre client un expert windows / Devops Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Expertise sys d'exploit. rés telecom. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : 1. L’Ingénierie système Microsoft : • Amélioration des outils et des processus d'installation et d'administration des serveurs Windows Server, • Assistance pour les entités de développement dans la définition de leurs architectures techniques, • Gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. 2. La gestion du cycle de vie des OS Windows Server et de l’usine de développement de ces derniers, à savoir : • Campagnes régulières de patching et de mise à jour des templates d’OS, pour des serveurs en environnement virtualisé VMware ou physiques (bare metal), • Maintien en conditions opérationnelle et de sécurité, et évolutions de l’usine de développement des templates d’OS, • Veille d’obsolescence, • Maintien à jour de la documentation associée. L’environnement est le suivant : • Cloud privé interne et offre de compute non-cloud, • Windows Server et dérivés, • Infrastructures SCCM, MDT, KMS • Langages : PowerShell, Python, • Pipelines Jenkins / Puppet 3. L’automatisation des tâches de déploiement et d’administration, en coordination avec les équipes en charge des infrastructures sous-jacentes (principalement Compute, Storage and Backup) et de la Sécurité : • Récolte des besoins fonctionnels en automatisation, traduction de ces besoins en spécifications techniques et validation avec les référents techniques, • Développement, test, livraison et support de processus automatisés, développement d’API (PowerShell, Python). 4. Participation régulière à la ligne de front pour le support à l'environnement de production et aux semaines d'astreinte (généralement entre une fois par mois et une fois tous les deux mois), pour répondre aux incidents ou pour des opérations planifiées. Environnement technique : • Microsoft Windows Server, KMS • PowerShell • Python • Active Directory • Jenkins • Github • Méthodologie SAFE • MECM (ex-SCCM), WSUS, MDT • Puppet (Ruby modules, global infrastructure) • Terraform • Architecture et solutions VMware Environnement anglophone.

Freelance

Mission freelance
Devops Confirmé AWS

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
DevOps
Gitlab

12 mois
400-610 €
Paris, France

Vos missions Concevoir, déployer et maintenir des architectures cloud scalables, robustes et sécurisées sur AWS Automatiser les déploiements avec Terraform, CloudFormation ou CDK Gérer les pipelines CI/CD (GitLab CI, GitHub Actions, etc.) Participer à la mise en œuvre de pratiques FinOps, SRE et sécurité Collaborer avec les équipes de développement pour faciliter les mises en production Superviser et optimiser la performance des systèmes (CloudWatch, Prometheus, Grafana) Assurer le support niveau 2/3 sur les environnements cloud et DevOps Environnement technique Cloud : AWS (EC2, ECS, Lambda, RDS, S3, IAM, VPC...) IaC : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Containers : Docker, Kubernetes (EKS) Observabilité : CloudWatch, Prometheus, Grafana Scripting : Bash, Python Méthodo : Agile / Scrum / DevSecOps

CDI
Freelance

Offre d'emploi
Data Engineer – AWS / Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

23 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

435 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous