L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 740 résultats.
Offre d'emploi
Chef de Projet technique cloud (H/F)
Trust IT
Publiée le
Azure
Cloud
Gestion de projet
1 an
50k-65k €
520-640 €
Île-de-France, France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Chef de projet technique cloud (H/F) Contexte de la prestation : Suite à un rapprochement des équipes France et Holding, notre client recherche un Chef de projet expérimenté dans le domaine des infrastructures Serveur/Cloud Privé et Cloud Public Azure/AWS, pour prendre le lead en 2026 sur des projets de transformation commun à ces deux entités Responsabilités : · Planifier et mettre en œuvre un certain nombre d’évolutions de nos environnements AZURE, comme : la mise ne place d’Azure managed devops pools, la convergence de la solution Redgate avec nos offres de Database management, la convergence de notre modèle RBAC · Définir et mettre en place un plan dévolutions de nos serveurs Microsoft, en datacenter mais aussi dans nos régions en France pour garantir la montée de version depuis MS SQL2016 et Windows2016 vers des versions supportées. · Dans le cadre d’une démarche globale ISO 27001, Etablir un plan de DRP/PRA de nos environnements AZURE, le documenter et le mettre en place (tests éventuels) Définir une offre de Hosting dans le cloud pour nos pays et régions en France. Collaborer avec l’ensemble des parties prenantes pour assurer la récolte des · besoins, orienter les choix à faire par les décideurs puis décliner cette offre et en faire la promotion. · Prendre en charge d’autres projets qui pourraient émerger durant l’année. · Effectuer le cadrage de chacun de ces projets, compléter le Project Management Plan (PMP), et faire valider le périmètre, le planning et les moyens nécessaires par les parties prenantes. · Effectuer le kick off du projet · Piloter les projets, Suivre l’avancement des actions centrales ou locales. · Organiser, préparer et diriger les différents comités de Pilotages (ainsi que les réunions hebdomadaires nécessaires) · Coordonner au quotidien les activités des équipes pour assurer la réalisation du projet dans le respect du niveau de qualité, du planning et du budget validés.
Offre d'emploi
Data Scientist / Développeur Python – Data & Analytics
TOHTEM IT
Publiée le
40k-55k €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe projet , nous recherchons un Data Scientist / Développeur Python pour intervenir sur des sujets liés au développement et à la valorisation de données . La mission s’inscrit dans un environnement technique orienté analyse, traitement et exploitation de données , avec pour objectif de concevoir et améliorer des composants permettant d’extraire de la valeur à partir de jeux de données complexes. Missions principales Analyser les besoins fonctionnels et participer à la conception technique des solutions Développer des traitements et scripts Python dédiés à l’analyse et à la transformation de données Manipuler, préparer et structurer des jeux de données Concevoir, améliorer ou intégrer des modèles de data science Participer à l’ industrialisation des traitements et des modèles Réaliser les tests, corrections d’anomalies et optimisations Contribuer à la documentation technique Participer aux échanges avec l’équipe projet et au suivi des travaux Livrables attendus Développements Python documentés Scripts et traitements de manipulation et d’analyse de données Jeux de tests et validation des traitements Modèles ou traitements de data science intégrés Documentation technique associée Correctifs et évolutions conformes aux exigences du projet Environnement technique Data & Développement Python Data Science Traitement et analyse de données Manipulation de jeux de données Outils & Plateformes Tableau Vertica DSS (Data Science Studio) Bonnes pratiques Développement de scripts et traitements de données Tests et debugging Documentation technique Travail collaboratif en équipe projet ⭐ Compétences clés (obligatoires) Python Data Scientist Tableau Vertica DSS
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Offre d'emploi
DevOps Azure H/F
OBJECTWARE
Publiée le
Azure
Niort, Nouvelle-Aquitaine
Vous interviendrez sur l’ensemble du cycle de vie des produits SI, en lien étroit avec les concepteurs et développeurs. Intégrer les enjeux d’exploitabilité, de performance et de supervision dès les phases d’idéation Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité Contribuer à la mise à disposition et au maintien des environnements (conteneurisés, cloud) Automatiser et industrialiser les déploiements dans une logique DevOps / CI-CD Garantir l’exploitabilité et l’observabilité des produits (monitoring, alerting, dashboards) Participer au capacity planning et à l’amélioration continue des produits Être garant de la complétude du dossier d’exploitabilité Environnement technique : - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana, ... - Hébergement application : Azure, Kubernetes... - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins... - Testing-Performance : Jmeter, Postman, Gatling...
Mission freelance
Développeur Talend
Mindquest
Publiée le
Data Lake
Gouvernance
Talend
8 mois
400-500 €
Châtillon, Île-de-France
Développer et mettre en œuvre de nouveaux pipelines d’intégration de données sur les plateformes existantes. Participer à la modélisation, au paramétrage, au développement et aux phases de test des solutions data. Assurer le maintien en condition opérationnelle (MCO) des pipelines et des plateformes de traitement des données. Contribuer à la gouvernance des plateformes en veillant au respect des processus et des standards techniques. Apporter un support technique aux équipes projets (équipes SI, équipes data et parties prenantes internes). Garantir la qualité, la sécurité et la fiabilité des flux de données intégrés dans le Data Lake. Participer à la définition et à l’amélioration des bonnes pratiques de développement, d’architecture et de gestion de configuration. Concevoir et maintenir les infrastructures de traitement de données permettant de gérer des volumes importants de flux. Superviser l’intégration et la qualité des données provenant de sources multiples . Contribuer à la cartographie des sources de données et à la structuration des bases de données . Réaliser une veille technologique sur les solutions de traitement et d’exploitation de la donnée.
Offre d'emploi
Incident Manager N2 (IDF)
RIDCHA DATA
Publiée le
PowerBI
Réseaux
ServiceNow
1 an
40k-45k €
310-350 €
Île-de-France, France
Présentation du service Au sein d’une direction en charge des infrastructures télécom, réseaux et sécurité , l’équipe dédiée assure un rôle transverse dans la gestion des activités opérationnelles et de gouvernance. Cette équipe intervient principalement sur trois axes : Gouvernance : gestion des processus et référentiels, suivi des indicateurs et tableaux de bord, gestion des dossiers transverses (organisation, conformité…). Troubleshooting avancé : analyse de traces réseau, analyse de trafic bas niveau, qualification des incidents et expertise technique. Gestion de projets transverses . Le poste est rattaché à l’activité gouvernance des infrastructures IT . L’équipe est composée de collaborateurs répartis entre la France et l’international . Principales missionsAnimation et coordination Organiser et animer différents comités opérationnels (comité de production, comité de changements, etc.). Assurer la coordination des réunions avec les équipes locales et internationales . Suivi réglementaire et conformité Suivre différents dossiers réglementaires et de conformité : contrôles permanents recommandations d’audit suivi de l’obsolescence des infrastructures Assurer le suivi des actions, des plannings et des alertes . Pilotage et reporting Générer des tableaux de bord opérationnels : capacity planning des infrastructures suivi de l’obsolescence indicateurs RSE Mettre en place et suivre les indicateurs de performance (KPI) . Produire des indicateurs de qualité liés aux changements, incidents, sauvegardes et inventaires. Gestion des habilitations Assurer la gestion et la mise à jour du référentiel des habilitations . Gestion des incidents majeurs (Incident Manager N2)Gestion des incidents critiques Coordonner la résolution rapide des incidents majeurs (P1/P2) . Mobiliser les équipes techniques afin d’assurer un retour à la normale dans les meilleurs délais . Communication de crise Assurer une communication claire et régulière auprès des parties prenantes (équipes internes, direction, utilisateurs). Analyse post-incident Réaliser les analyses de causes racines (RCA) . Rédiger les rapports post-incident et proposer des actions correctives . Suivi des performances Suivre les SLA et KPI liés aux incidents . Produire des tableaux de bord et participer aux comités de pilotage . Amélioration continue Collaborer avec les équipes support, infrastructure, développement et sécurité afin d’améliorer les processus de gestion des incidents. Compétences requisesCompétences techniques Génération d’ indicateurs et tableaux de bord – Confirmé – Impératif Maîtrise de Power BI et PowerPoint – Confirmé – Impératif Bases en réseaux, télécoms et sécurité en environnement de production – Confirmé – Important Connaissance des outils Splunk et ServiceNow – Junior – Appréciable Langues Anglais professionnel – impératif
Offre d'emploi
Data Analyst
Deodis
Publiée le
PowerBI
PySpark
Python
12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Mission freelance
[SCH] Architecte Cloud Azure Certifié - 1219
ISUPPLIER
Publiée le
10 mois
350-400 €
Nanterre, Île-de-France
Dans le cadre du développement et de l’exploitation de socles Cloud souverains de confiance, notre client recherche un Architecte Cloud Azure senior, certifié, pour intervenir sur les environnements Bleu (Azure souverain) et S3NS (Google Cloud souverain). La mission couvre l’ensemble du cycle : conception, industrialisation, exploitation et amélioration continue des plateformes Cloud, avec de forts enjeux de sécurité, gouvernance et fiabilité. Objectifs et livrables : -Dossiers d’architecture (Landing Zone, IAM, réseau, sécurité) – initiaux et mis à jour -Référentiels de standards, patterns et gouvernance Cloud -Modules Terraform versionnés, testés et documentés -Pipelines CI/CD et workflows GitOps opérationnels -Guides techniques, runbooks et documentation d’exploitation -Scripts d’automatisation, supervision et alerting -Amélioration continue de la sécurité, fiabilité et industrialisation Profil attendu : Architecte Cloud senior, certifié Azure Forte expérience sur des environnements Cloud sécurisés / souverains Très bonne maîtrise de l’industrialisation Cloud Autonomie, rigueur et capacité à travailler en transverse Sensibilité sécurité, gouvernance et exploitation
Mission freelance
DevOps Engineer – Plateforme Data & CI/CD (F/H)
CELAD
Publiée le
1 an
420-460 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Offre d'emploi
DevOps Engineer – Plateforme Data & CI/CD (F/H)
CELAD
Publiée le
45k-50k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Offre d'emploi
Ingénieur DevOps / Ingénieure DevOps [H/F/X]
REDLAB
Publiée le
Ansible
AWS Cloud
Azure DevOps
Rhône, France
Bonjour, nous c'est TerraOps! Pure Player DevOps/Cloud à Rouen, et désormais à Lyon , passionnés d’innovation, nous concevons, développons, déployons et maintenons des solutions de valorisation de données parfaitement adaptées à nos clients : industries de pointe, pharma, banques/assurances, start-ups et éditeurs logiciels. Pour nous accompagner dans cette tâche, nous sommes en quête de futurs aventuriers désireux de se plonger dans des projets ambitieux au cœur de la donnée. Nous cherchons aujourd’hui le profil qui viendra compléter notre équipe et travailler aux côtés de nos Chefs de Projets , Cloud Engineers , SRE , Cloud Architects , Architectes logiciels . En tant que DevOps , vous serez l’intermédiaire entre les équipes de développement informatique et celles d’exploitation. Véritable passerelle entre les deux mondes, vous maitrisez donc les enjeux et les préoccupations de chacun. Votre rôle : mettre en place les démarches et les outils pour répondre à leurs besoins (produire plus efficacement, plus rapidement, maintenir et mettre à disposition une infrastructure, garantir la stabilité des processus, etc.) Mais vous ne serez pas seul dans votre quête ! Vous travaillerez en étroite collaboration avec les équipes techniques, qui seront vos principaux interlocuteurs. Vous devrez faire preuve d'esprit de synthèse, proposer de nouvelles façons de travailler, être capable de prioriser et d'expliquer vos actions avant finalement de mettre les mains dans le cambouis. Vos responsabilités : · Concevoir, mettre en œuvre et maintenir l’infrastructure Cloud, en utilisant des services et des outils adaptés (par exemple : AWS, Azure, Google Cloud Platform) ; · Développer et automatiser les processus de déploiement ; · Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans les pipelines ; · Assurer la sécurité et la conformité des environnements Cloud ; · Surveiller et optimiser les performances des ressources Cloud, en identifiant et en résolvant les problèmes liés à l’infrastructure ; · Travailler en étroite collaboration avec les équipes d’exploitation, de développement et de support pour résoudre les problèmes et améliorer les processus ; · Documenter les procédures, les configurations et les bonnes pratiques liées à l’infrastructure.
Offre d'emploi
Développeur Full Stack (H/F)
IA Soft
Publiée le
.NET CORE
Angular
Java
1 an
40k-45k €
400-550 €
Île-de-France, France
1. Intitulé du poste Développeur Full Stack (H/F) 2. Mission principale Le Développeur Full Stack conçoit, développe, teste et maintient des applications web ou logicielles en intervenant à la fois sur la partie front-end et back-end . Il participe à l’ensemble du cycle de vie des projets techniques, de l’analyse du besoin jusqu’à la mise en production, en veillant à la performance, à la sécurité et à la qualité du code. Il travaille en étroite collaboration avec les équipes produit, design, QA et infrastructure afin de livrer des solutions robustes, évolutives et adaptées aux besoins métiers. 3. Responsabilités principalesDéveloppement applicatif Concevoir et développer des fonctionnalités front-end et back-end. Participer à l’architecture technique des applications. Développer et maintenir des API, services et interfaces utilisateurs. Assurer l’intégration entre les différentes couches de l’application. Veiller à la qualité, à la lisibilité et à la maintenabilité du code. Maintenance et amélioration continue Corriger les anomalies et résoudre les incidents techniques. Optimiser les performances des applications. Participer aux évolutions techniques et fonctionnelles des produits. Assurer la maintenance corrective et évolutive des solutions existantes. Contribuer à la réduction de la dette technique. Qualité et sécurité Réaliser les tests unitaires, tests d’intégration et revues de code. Appliquer les bonnes pratiques de développement sécurisé. Veiller à la conformité du code avec les standards de l’entreprise. Participer à la documentation technique des applications. Garantir la fiabilité, la stabilité et la sécurité des développements. Travail en équipe Collaborer avec les Product Owners, UX/UI designers, DevOps et QA. Participer aux cérémonies Agile : sprint planning, daily meeting, rétrospectives, démos. Estimer la charge de développement et contribuer à la planification. Partager les connaissances techniques au sein de l’équipe. 4. Profil recherchéFormation Bac+3 à Bac+5 en informatique, développement logiciel ou équivalent. Une spécialisation en développement web, génie logiciel ou systèmes d’information est un plus. Expérience Expérience de 5 à 7 ans minimum en développement full stack. Expérience dans la réalisation d’applications web ou plateformes métiers. Une expérience en environnement Agile / Scrum est appréciée. 5. Compétences requisesCompétences techniques Bonne maîtrise des technologies front-end : HTML, CSS, JavaScript / TypeScript. Bonne maîtrise d’au moins un framework front-end : React, Angular, Vue.js ou équivalent. Bonne maîtrise des technologies back-end : Node.js, Java, .NET, PHP, Python ou équivalent. Expérience avec les API REST / GraphQL. Bonne connaissance des bases de données relationnelles et/ou NoSQL : PostgreSQL, MySQL, MongoDB, etc. Maîtrise des outils de versioning, notamment Git. Connaissance des environnements CI/CD, Docker, cloud ou DevOps appréciée. Sensibilité aux enjeux de cybersécurité, performance et scalabilité. Compétences comportementales Esprit d’analyse et de résolution de problèmes. Rigueur, autonomie et sens de l’organisation. Capacité à travailler en équipe et à communiquer efficacement. Curiosité technique et veille technologique active. Force de proposition et orientation qualité. 6. Objectifs du poste Développer des applications fiables, performantes et évolutives. Répondre aux besoins fonctionnels dans le respect des délais. Garantir un haut niveau de qualité technique et de sécurité. Participer à l’amélioration continue des outils, méthodes et architectures.
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre premium
Offre d'emploi
Ingénieur production/Ingénieur DevOps H/F
WINSIDE Technology
Publiée le
Kubernetes
Terraform
3 ans
40k-52k €
400-480 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Ingénieur production/Ingénieure production pour une GRANDE entreprise française ! 🚀 Ce poste est fait pour toi si : tu aimes contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation; tu as 5 ans d'expérience professionnelle à minima en tant qu'Ingénieur de Production/Ops Engineer/DevOps Engineer; tu as 3 ans d'expérience professionnelle à minima en Kubernetes ET Terraform. 🎯 Ce que l'on attend de toi … ✨ Concevoir, déployer et maintenir l'infrastructure cloud via Terraform (AWS) ✨ Automatiser les processus de déploiement et de scaling d'infrastructures Kubernetes (EKS) ✨ Garantir la haute disponibilité du service en production ✨ Mettre en place la supervision et le monitoring du service via l'outil de monitoring (Datadog) ✨ Mettre en œuvre des stratégies de sécurité et de conformité dans les pipelines IaC ✨ Implémenter et maintenir la gestion du trafic, la sécurité applicative et la protection via Cloudflare ✨ Maintenir le produit selon les évolutions (sécurité, obsolescence, mises à jour...) ✨ Collaborer avec les équipes de développement pour optimiser les CI/CD (GitLab CI) Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Démarrage rapide. Durée de la mission : 3 ans. TT : 3 jours par semaine. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Expert Senior Google Workspace & Data/IA – Freelance – Niort (79)
Wekey
Publiée le
Google Workspace
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN, ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? 😁 Pour découvrir qui nous sommes et surtout votre future mission , c’est juste ici 👇 Vous êtes Expert Google Workspace / Data / IA , freelance, et à la recherche d’un projet à forte valeur ? Nous avons exactement la mission que vous cherchez, pour l’un de nos clients majeurs du secteur assurantiel, basé à Niort. 👀 CE QUI VOUS ATTEND Dans le cadre de sa grande transformation digitale, notre client recherche un Expert Senior hybride , capable d’assurer le lien entre : les enjeux métiers, la donnée, les usages collaboratifs, et l’IA générative (Gemini). Votre rôle sera stratégique et transversal. Rien que ça 😎 Vous interviendrez sur l’ensemble de l’écosystème Google Workspace et son extension Data & IA. 🎯 VOS MISSIONS Volet Data & Analytics – Looker & BigQuery Conception et maintenance de modèles LookML avancés . Création de dashboards stratégiques : adoption, performance, RSE. Requêtage SQL BigQuery (optimisation des coûts, structuration des datasets). Définition d’indicateurs RSE : infobésité, hyperconnexion, sobriété numérique. Volet IA Générative – Gemini & Innovation Participation active au Centre d’Expertise IA du client. Référent technique et fonctionnel sur Gemini . Animation de la communauté IA : webinars, guides, cas d’usage. Déploiement de solutions IA : assistants virtuels, synthèses, automatisations rédactionnelles. Volet Google Workspace – Administration & Fonctionnel Administration avancée : sécurité, DLP, Context-Aware Access, supervision. Automatisation des processus via AppSheet et Apps Script . Accompagnement de la migration Office → GWS (Excel/VBA → Sheets/Apps Script/BigQuery). Support AMOA/PO : roadmap produit, user stories, conduite du changement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5740 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois