Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 310 résultats.
Offre premium
Freelance

Mission freelance
Architecte Solution DevOps – IDF 92 - Vorstone

VORSTONE
Publiée le
Architecture
Azure DevOps
CI/CD

1 an
700-800 €
Hauts-de-Seine, France
Architecte Solution DevOps Au sein de la Direction Digital, Data & Systèmes d’Information : Contexte de la prestation Dans le cadre de la transformation digitale du groupe, nous recherchons un Architecte Solution DevOps spécialisé dans l’Automation. Rattaché au département Architecture d’Infrastructure au sein de la Direction des opérations, l’Architecte DevOps sera intégré à l’équipe Automation composée d’architectes et d’ingénieurs techniques. L’objectif est de renforcer l’équipe et d’améliorer les pratiques DevOps, en collaborant avec les équipes de développement et d’exploitation pour automatiser les processus, mettre en place des pipelines CI/CD, gérer l’infrastructure cloud et on-premise, et assurer la fiabilité des applications. Missions Intégré à l’équipe Architecture Opérations, vos responsabilités seront : Définir et concevoir les architectures DevOps, notamment pour l’infrastructure as code. Concevoir, développer et maintenir des pipelines CI/CD pour automatiser le déploiement, les tests et la livraison des applications. Gérer l'infrastructure cloud et on-premise à l’aide de Terraform et Ansible. Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de vie des applications. Contribuer à l’élaboration et à l’amélioration des processus et outils DevOps. Documenter et partager les connaissances avec l’ensemble des architectes. Rédiger les normes et standards liés aux pratiques DevOps.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance

Mission freelance
Architecte Urbaniste SI

Atlas Connect
Publiée le
API
API Platform
ArchiMate

12 mois
640-780 €
Guyancourt, Île-de-France
Vous rejoignez la direction des systèmes d’information d’un acteur majeur du secteur de la construction. L’équipe IT Architecture accompagne la transformation digitale et veille à la cohérence du système d’information du groupe. Vous intervenez comme architecte référent sur un domaine métier stratégique, garantissant l’alignement entre besoins métiers et solutions techniques. Mission principale Assurer la cohérence architecturale du SI. Accompagner la transformation digitale des métiers. Être l’interlocuteur privilégié pour les sujets majeurs et stratégiques de votre périmètre. Activités principales Accompagnement métier et aide à la décision Élaborer l’architecture fonctionnelle cible du SI, en cohérence avec la stratégie digitale et métier. Comprendre les processus métiers pour accélérer la génération de valeur via le SI. Accompagnement projet Contribuer à la conception et à l’évolution des systèmes applicatifs sur votre périmètre. Gestion de la cartographie et des référentiels Maintenir la cartographie de domaine (référentiels, catalogue de données, flux, APIs). Gérer les référentiels d’architecture d’entreprise (objets métiers, applications, processus, flux). Patrimoine applicatif et obsolescence Garantir la qualité du patrimoine applicatif en tant que Business Process Owner. Piloter les plans d’actions liés à l’obsolescence technique. Promotion de l’architecture et management transverse Promouvoir les orientations architecturales auprès des directions métiers. Encadrer une ressource et animer les responsables de domaine pour le maintien des référentiels.
CDI

Offre d'emploi
Ingénieur Data Intégration IT F/H - Test, essai, validation, expertise (H/F)

█ █ █ █ █ █ █
Publiée le

Paray-Vieille-Poste, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Junior business data scientist - Marketing & commercial effectiveness

█ █ █ █ █ █ █
Publiée le
DevOps
Microsoft Excel
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Deep Learning
MLOps
Python

6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
CDI

Offre d'emploi
Expert DevOps / Architecte Cloud HF

MGI Consultants
Publiée le
DevOps

Paris, France
Dans le cadre d’un projet stratégique de migration d’une solution complexe orientée microservices vers un tenant Azure, nous recherchons un Expert DevOps / Cloud Architect HF. L’environnement est fortement interconnecté avec de nombreuses intégrations internes (M3, Axway) et externes (Commerce Tools, Salesforce, Auth0). Votre mission : Concevoir, bâtir et sécuriser l’ensemble de l’infrastructure Cloud et de la chaîne de delivery (CI/CD) sur Azure, avec une maîtrise experte de Terraform comme colonne vertébrale de l’Infrastructure as Code, dans une approche GitOps. Responsabilités principales : Infrastructure as Code & Architecture Cloud ▸ Concevoir et implémenter l’intégralité de l’infrastructure Azure via Terraform – Structuration des modules, gestion du state (remote backend), stratégie de workspaces – Patterns avancés : dynamic blocks, for_each, provisioners, data sources ▸ Architecturer et déployer les services Cloud-native Azure selon les besoins du projet : – Azure API Management (APIM) : design des policies, rate limiting, versioning des APIs – Event Grid : topologies événementielles, dead-lettering, filtrage avancé – Service Bus : queues, topics, gestion des sessions et du retry – AKS : sizing des node pools, network policies, integration AAD, monitoring ▸ Définir les landing zones, la topologie réseau (VNets, peering, Private Endpoints) et les stratégies de sécurité réseau CI/CD & GitOps ▸ Concevoir et maintenir les pipelines CI/CD via Azure DevOps (YAML pipelines) ▸ Industrialiser les déploiements Kubernetes avec Helm Charts et ArgoCD (approche GitOps) ▸ Mettre en place une stratégie de promotion multi-environnements (dev, staging, prod) robuste et automatisée DevSecOps & Qualité ▸ Intégrer les contrôles de sécurité directement dans les pipelines (shift-left) ▸ Durcir les configurations (CIS benchmarks, policies Azure, network segmentation) ▸ Mettre en œuvre le scanning de vulnérabilités (images, dépendances, IaC) Collaboration & Leadership technique ▸ Accompagner les équipes de développement sur les bonnes pratiques Cloud et DevOps ▸ Standardiser l’outillage et les patterns d’infrastructure pour l’ensemble des équipes ▸ Être force de proposition sur l’architecture et les choix techniques
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI

3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Freelance

Mission freelance
Consultant MOE MSBI socle Data ETL

PROPULSE IT
Publiée le
MOE
MSBI

24 mois
275-550 €
France
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
CDI

Offre d'emploi
Ingénieur Devops & production H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

40k-50k €
Saint-Paul-lès-Durance, Provence-Alpes-Côte d'Azur
L'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Au sein de l'équipe Application Management de notre client, grand acteur dans le domaine de l'énergie, vous contribuez à la fiabilité, l'automatisation et l'amélioration continue des environnements applicatifs. Vos responsabilités : • Conception collaborative : Intervenir en amont des projets en collaboration avec les équipes de développement et d'architecture afin d'intégrer les contraintes d'exploitation dès la phase de conception et garantir la robustesse et la maintenabilité des solutions • Veille technologique : Assurer une veille active et être force de proposition sur les nouvelles technologies et pratiques (Infrastructure as Code IaC, Kubernetes, observabilité, automatisation de la sécurité et outils DevOps) • Automatisation avancée : Concevoir, développer et maintenir des pipelines CI/CD robustes et sécurisés afin d'accélérer et fiabiliser le déploiement des applications sur des environnements complexes (cloud, on-premise et conteneurisés) • Ingénierie de production : Piloter les mises en production et assurer le bon fonctionnement des applications (surveillance, gestion des incidents, optimisation des performances et amélioration de la scalabilité des systèmes) • Support et collaboration : Accompagner les équipes d'exploitation et de développement, faciliter la résolution des incidents et contribuer à la diffusion des bonnes pratiques DevOps au sein de l'organisation • Intégration & qualification : Valider et qualifier les packages applicatifs (.NET, Java, microservices) dans un environnement multi-plateformes avant leur déploiement en production L'environnement technique : Kubernetes, Jenkins, GitLab CI, GitHub Actions, Terraform, Ansible, Puppet, Chef, Terraform, Docker, OpenShift, Cloud (AWS, Azure, GCP), Python, Bash, Java, Prometheus, Grafana, ELK Stack, Git (GitFlow), SonarQube, Maven, Nexus • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 0w58lqbmiz
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance
CDI

Offre d'emploi
Ingénieur SRE / DevOps

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
Ansible
Azure
Bash

12 mois
40k-45k €
300-400 €
Bordeaux, Nouvelle-Aquitaine
Conception, participation à la définition de l’architecture et déploiement de l'infrastructure OnPremise et Cloud Conception & développement de scripts et APIs techniques Configuration de middlewares Analyser les anomalies sur les environnements de pré-production/ staging et de production Définition des critères d’exploitabilité d’un applicatif S’assurer de la mise en place des critères de sécurité définis par le client Être garant, de la mise en place de l'exploitabilité des applicatifs déployés en production (smokeTest, supervision, alerting, fiches consignes, KPI…), en suivant les critères d’exploitabilité définis par la communauté devops Effectue le suivi de la qualité de la production (performances, incidents) conformément au contrat de service Accompagne les projets d’un domaine d’activité en tant que spécialiste de la production : vérification du respect des critères d’exploitabilité Élabore, réalise et fiabilise les plans d’ordonnancement des traitements de production Automatiser les tâches manuelles automatisables, répétables et sans valeur ajoutée Conception et construction des usines de déploiement logiciels Maintien en condition opérationnelle des usines de déploiement logiciels existantes et des APIs associées, des outillages et infrastructures transverses Réaliser de l'astreinte, notamment lors d'alertes en HNO Travailler en mode agile dans les squads de développement (le mode agile ne doit pas empêcher le ticket JIRA) Diffuser la connaissance et les bonnes pratiques devops, notamment en participant et en animant des communautés de pratiques Devops. Documenter Être force de proposition dans l'amélioration des techniques d'industrialisation et d’automatisation, grâce à de la veille technologique Communication avec les autres équipes IT du groupe Support aux équipes de développement et d'exploitation
Freelance

Mission freelance
Support Engineer / Dev Java

Nicholson SAS
Publiée le
Azure
Hyperion
IBM i

6 mois
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Missions : Ingénieur Support et Developpeur Java/Hyperion. Affecté(e) à une équipe Agile pluridisciplinaire, l’activité principale consiste à délivrer des projets Finance, de petites évolutions, ainsi qu’à assurer le support L3 de nos solutions ETL, en étroite collaboration avec les Key Users et représentants métiers, dans un environnement international où la majorité des utilisateurs sont situés en Europe. Capacité à challenger les besoins, à les formaliser, à analyser les données, à concevoir et mettre en œuvre la solution basée sur les logiciels utilisés dans le Domaine, à réaliser des tests de bout en bout et des tests de performance, à rédiger la documentation nécessaire à la bonne exploitation de la solution, à former les Key Users et à accompagner le métier lors du déploiement et de la mise en production.
Freelance

Mission freelance
Expert système d'exploitation, réseaux et télécoms expert M365 Aix en Provence/la

WorldWide People
Publiée le
Office 365

6 mois
330-340 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Expert système d'exploitation, réseaux et télécoms Aix en Provence ASAP Compétences clés. Obligatoire : M365 Active Directory On prem et Entra-ID Intune Pureview Important Concept landing zone API Management Azure Dans le cadre de la Croissance de l'activité du service, nous recherchons un expert M365 Description Au sein de l’ADSN, dans la direction du SI Bureautique du Pôle Numérique, l’expert consultant contribuera à la conception, la mise en oeuvre et à l’évolution des interfaces et solutions M365 à destination de l’ensemble des collaborateurs de l’organisation et ce, en adéquation avec les objectifs stratégique Livrables Document d'architecture Etude d'impact Document d'exploitation Mode opératoire / doc install Rapport d'incident / REX Etude Suggestion d'amélioration / d'optimisation Compétences • Expertises avancées des environnements techniques autour des technologies M365 suivantes : o M365 Suite : Services de Microsoft 365, en particulier Exchange Online, SharePoint Online, OneDrive for Business, Teams, Power Platform (Power BI, Power Apps, Power Automate) o Entra ID : Gestion des identités et des accès via Azure AD notamment l'hybridation avec Active Directory local, et l'intégration des applications au SSO (Single Sign-On) et la mise en place de règles d'accès conditionnelles. o Intune & Endpoint Management : Gestion des périphériques via Intune y compris les politiques de sécurité des appareils mobiles et la gestion des appareils dans un environnement M365. o Security & Compliance : Solutions de gouvernance, protection des informations et conformité principalement avec Microsoft PureView et Microsoft Defender for Office • Connaissances des architectures Cloud Azure, plus précisément des : o Concepts de Landing Zone et des Frameworks de conception Azure o Services Azure standards : Virtual Machines, Networking, Storage, App Service, API Management o Solutions de surveillance et sauvegarde : Azure Monitor, Log Analytics, Azure backup o Solutions de sécurité : Azure RBAC, Azure Firewall et Network Security Groups, Azure Key Vault o Outils d'automatisation et gestion des configurations : PowerShell, Azure DevOps, Automation, Terraform, Ansible o Capacité à définir des architectures et rédiger des documents d’architecture détaillée Compétences clés Obligatoire M365 Active Directory On prem et Entra-ID Intune Pureview Important Concept landing zone API Management Azure
1310 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous