Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 617 résultats.
Freelance

Mission freelance
AMOA IA

Codezys
Publiée le
Data science
Formation
IA Générative

12 mois
Nantes, Pays de la Loire
Contexte de la mission Ce profil senior jouera un rôle stratégique et opérationnel en tant que pont entre l’ Intelligence Artificielle (IA) Fet et les Directions métiers , afin d’assurer une coordination efficace avec les Services Support concernés. Détection et Cadrage Accélérer l’identification des besoins métiers et repérer les opportunités de projets IA à forte valeur ajoutée, en vue de les relayer à l’ IA Factory . Acculturation Sensibiliser et former les Chefs de Projet (CP) et Product Owners (PO) des directions opérationnelles aux enjeux et aux capacités de l’IA. Accompagnement Opérationnel Soutenir et sécuriser le développement ainsi que le déploiement des solutions IA au sein des équipes concernées. Levée de Freins Identifier les obstacles à l’appropriation des outils IA par les utilisateurs finaux et proposer des plans d’action correctifs adaptés. Synergies et Collaboration Favoriser le développement de synergies efficaces entre l’ IA Factory et les directions opérationnelles afin de maximiser la performance collective. Production de Documents Rédiger des études d’opportunités, élaborer des schémas fonctionnels, concevoir des solutions technologiques, rédiger des cahiers des charges, et préparer des comptes rendus synthétiques.
Freelance

Mission freelance
Chef de Projet Senior - Migration Collaborative (H/F/X)

Okara
Publiée le
Intune
Microsoft Defender
Microsoft Entra ID

8 mois
550-650 €
Nord, France
Tu cherches un terrain de jeu où tu auras un véritable impact ? La liberté et la transparence n'ont rien d'optionnelles pour toi ? Parfait : ici, les codes ont changé. Pour l'un de nos partenaires stratégiques du domaine du retail, on recherche notre futur·e Chef de Projet Senior - Migration Cloud & Collaborative (M/F) pour rejoindre l’aventure Okara sur la métropole lilloise ! 💥 Ton impact ? Tu prendras la tête d'un programme stratégique et international de migration massive d'un environnement Google Workspace vers l'écosystème Microsoft 365. Le but du jeu : orchestrer cette transition technologique majeure pour l'ensemble des pays du groupe, avec une date butoir impérative au 31 décembre. Tu seras le·la garant·e de la réussite de ce virage, tant sur le plan technique (sécurité, identités) que fonctionnel (accompagnement au changement, usages). 🛠️ Ton quotidien : Tu pilotes le programme dans toutes ses dimensions : stratégiques, humaines et techniques. Tu coordonnes une galaxie de parties prenantes (IT, Sécurité, Métiers, Pays et Prestataires). Tu supervises la mise en œuvre d' Entra ID , de la DLP et de Microsoft Defender . Tu gères la complexité d'un déploiement multi-pays dans un environnement international.
Freelance
CDI
CDD

Offre d'emploi
Cloud GCP Data & IA Senior

bdevit
Publiée le
CI/CD
GenAI
Google Cloud Platform (GCP)

36 mois
Île-de-France, France
Contexte : Dans le cadre de l’accélération des usages IA générative au sein d’un grand groupe bancaire, une entité dédiée aux infrastructures IT renforce ses équipes Cloud afin de concevoir et industrialiser des plateformes Data, AI et GenAI sur GCP. Le consultant interviendra sur des cas d’usage autour des LLM et du RAG , avec des enjeux de scalabilité, sécurité, gouvernance des données et mise en production dans un environnement bancaire exigeant. Missions Principales : Concevoir et déployer des architectures Data, AI & GenAI sur GCP ; Mettre en œuvre des solutions basées sur des LLM (Vertex AI, modèles open source, APIs) ; Concevoir et industrialiser des pipelines RAG (Retrieval-Augmented Generation) : ingestion, vectorisation, recherche sémantique ; Implémenter des chaînes MLOps / LLMOps (CI/CD, évaluation, monitoring des modèles) ; Automatiser les infrastructures ( Terraform, IaC ) ; Assurer le run : performance, monitoring, optimisation des coûts (FinOps) ; Garantir la sécurité et la gouvernance des données sensibles (IAM, conformité, gestion des accès) ; Accompagner les équipes métiers et data dans l’industrialisation des cas d’usage GenAI.
CDI

Offre d'emploi
Administrateur de bases de données Senior Oracle et Microsoft SQL Server H/F

Zen Conseil
Publiée le
Microsoft SQL Server
Oracle Database

40k-50k €
Illkirch-Graffenstaden, Grand Est
A propos de Zen Conseil Basée à proximité de Strasbourg depuis 2004, Zen Conseil accompagne les entreprises dans la gestion et l’optimisation de leurs bases de données. Nos experts reconnus conçoivent et déploient des solutions sur mesure pour garantir la disponibilité, la performance et la sécurité des environnements de données. Nous mettons à votre service notre savoir-faire en conseil, infogérance, expertise technique, développement et supervision. Notre objectif est d'apporter le bon conseil, les bons outils et un accompagnement DBA sur mesure à nos clients. En tant qu’administrateur / administratrice de bases de données Sénior chez Zen Conseil, vous serez garant(e) de la performance, de la sécurité et de la haute disponibilité des environnements de nos clients. Vous interviendrez principalement sur les technologies Oracle, Microsoft SQL Server et contribuerez à la mise en œuvre de solutions sur mesure, adaptées aux besoins de chaque client. Vos missions : Contrôler, qualifier et acquitter les alertes remontées via notre outil de supervision ZenGuard. Apporter une première analyse technique sur les bases de données des clients. Respecter les processus internes et contribuer à la résolution des anomalies. Contrôler les rapports journaliers. Réaliser des astreintes. Participer à la qualification technique des projets client. Conseiller les clients grâce à votre expertise et à notre retour d’expérience. Réaliser des missions projet : audit, migration de bases de données, montée de version, application de patch, optimisation… Rédiger des documentations client : comptes rendus d’intervention, de réunion, etc. Rédiger des procédures internes dans une démarche d’amélioration continue. Participer aux projets internes : ZenGuard, MyDBSafe Maîtrise impérative de : Oracle : installation, configuration, administration et supervision de niveaux 2 et 3, tuning de requêtes, migrations depuis d’autres SGBD (PostgreSQL, SQL Server…). Microsoft SQL Server : installation, configuration, administration, optimisation des performances, haute disponibilité (AlwaysOn, clustering), sauvegardes/restaurations, sécurité et gestion des droits. Compétences techniques appréciées : SGBD : PostgreSQL MySQL, MariaDB, MongoDB OS : Windows et/ou Linux Développement de scripts : Bash, Shell Outils de monitoring : Nagios, Cacti, PRTG, Skylight, Grafana Virtualisation : VMware
CDI

Offre d'emploi
Administrateur systèmes et réseaux Azure H/F

FENYX Consult
Publiée le
Azure

Lille, Hauts-de-France
Conception, mise en œuvre et maintenance des Landing Zones Azure, en lien avec notre stratégie FinOps et sécurité cloud. – Administration des environnements IaaS/PaaS Azure (App Services, VMs, networking, bastion, sauvegarde, logs, etc.). – Supervision des abonnements, analyse des coûts. – Pilotage des aspects IAM / RBAC / PIM et application des politiques de sécurité cloud (en collaboration avec la SSI). – Contribution aux projets applicatifs hébergés sur Azure. – Administration secondaire des environnements Microsoft 365 (Power Platform, Entra ID, Exchange Online) en soutien des usages. – Interface technique avec les prestataires cloud, les équipes internes, et les métiers. – Backup LAN/WAN legacy (CISCO, Fortinet).
Freelance

Mission freelance
Développeur Data ETL

Lùkla
Publiée le
ETL (Extract-transform-load)

2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Freelance

Mission freelance
AI Prompt Engineer

Phaidon London- Glocomms
Publiée le
AI
Data science
Finance

6 mois
400-550 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et optimisation des invites Concevoir, améliorer et maintenir des invites de haute qualité (système, instructions, exemples, etc.). Développer des stratégies d'invites avancées : enchaînement de pensées, interactions multiples, routage, utilisation d'outils. Créer et gérer un référentiel d'invites standardisées pour les principaux cas d'usage du secteur bancaire. Intégration aux produits Collaborer avec les équipes Données et Informatique pour intégrer des invites optimisées aux assistants conversationnels. Gérer le versionnage et le suivi du cycle de vie des invites. Accompagner les équipes métiers dans la définition de leurs besoins et l'identification des cas d'usage d'IA à forte valeur ajoutée. Évaluation et assurance qualité Mettre en œuvre des cadres de test robustes : analyse comparative, analyse des hallucinations, contrôles de précision. Réaliser des tests A/B et mettre en place des outils d'évaluation semi-supervisée. Surveiller et améliorer en continu les performances conversationnelles. Conformité, Sécurité et Gouvernance Garantir la conformité aux exigences réglementaires (secteur bancaire, RGPD, loi sur l'IA). Créer et diffuser des bonnes pratiques pour les équipes métiers.
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance

Mission freelance
Développeur Salesforce - projet Agentforce - Data Cloud

KUBE Partners S.L. / Pixie Services
Publiée le
Agent IA
Salesforce

6 mois
Hauts-de-Seine, France
Dans le cadre du développement de ses activités autour de Salesforce et des solutions d’IA, notre client est à la recherche de Développeurs Salesforce expérimentés pour intervenir sur des projets innovants intégrant Agentforce, la data et le CRM 360 . Vous participerez à la conception et à la réalisation de solutions couvrant : Les processus métiers : vente, service client, marketing La gestion, transformation et exploitation des données L’intégration de cas d’usage liés à l’ intelligence artificielle (Agentforce / IA Salesforce) Développement en Apex, Lightning Web Components (LWC) et Flows Configuration des clouds Salesforce : Sales Cloud Service Cloud Mise en place d’automatisations et de logiques métiers avancées Garantir la qualité du code : tests, revue de code, bonnes pratiques
Offre premium
CDI

Offre d'emploi
Product Designer (H/F)

Swood Partners
Publiée le
Application mobile
Design system
Figma

Paris, France
Rejoins l’aventure chez SWOOD Partners ! Nous recherchons un(e) Product Designer pour concevoir des interfaces intuitives, esthétiques et centrées sur l'utilisateur. Si tu maîtrises l’UX/UI et que tu aimes collaborer avec des équipes produit et tech pour créer des solutions impactantes, cette opportunité est pour toi ! Tu travailleras au sein d’une équipe agile, sur des produits innovants, en collaborant avec des PO, développeurs et autres designers pour offrir une expérience utilisateur exceptionnelle. Ce que tu feras au quotidien ✅ Concevoir des interfaces (UX/UI) pour des applications et plateformes digitales, en assurant une cohérence visuelle et une accessibilité optimale. ✅ Créer et maintenir un Design System pour garantir une expérience utilisateur harmonieuse et scalable. ✅ Collaborer avec les équipes produit et tech pour traduire les besoins métiers en solutions intuitives et performantes. ✅ Réaliser des tests utilisateurs , des ateliers de co-conception et des audits UX pour améliorer l’existant. ✅ Prototyper (Figma, Protopie, etc.) et itérer sur les designs en fonction des retours. ✅ Participer aux rituels Agile (Daily, Refinement, Sprint Review, Rétro) pour aligner design et développement. ✅ Rester à jour sur les tendances UX/UI, les nouvelles méthodologies et outils de design. Pourquoi nous rejoindre ? 🤩 ✨ Accès à la propriété : chaque Swoodies peut acheter des actions chez SWOOD ! Faire partie et évoluer dans la Communauté Product Design , pour apprendre et partager avec d’autres experts. ‍ Un accompagnement au top : un suivi RH, un suivi BM et un suivi PL (un expert design ou produit) pour construire un plan d’évolution personnalisé. ⚡ On valorise ton impact , pas juste ta rentabilité. Des moments de partage , de fun et de best practices avec tous les Swoodies !
Freelance
CDI

Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen

SMILE
Publiée le
AI
API REST
Méthode Agile

3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Freelance

Mission freelance
Ingénieur système cloud et automatisation H/F

Lùkla
Publiée le
Cloud

6 mois
Villeneuve-d'Ascq, Hauts-de-France
Nous recherchons 2 Ingénieurs Système Cloud & Automatisation (H/F) pour accompagner l’un de nos clients dans la gestion et la transformation de ses infrastructures IT. Répartition des activités : 80% Build (projets, transformation, automatisation) 20% Run (maintien en conditions opérationnelles) Vos missions principales Administrer et faire évoluer les environnements Microsoft (Windows Server, Active Directory, Entra ID / Azure AD) Participer aux projets de migration Cloud (public & privé) Mettre en œuvre des solutions Infrastructure as Code (Terraform, Ansible, Packer…) Gérer et optimiser les environnements VMware (vSphere, vCenter) Contribuer aux projets de transformation IT (sécurité, automatisation, modernisation) Assurer le support niveau 3 (N3) sur les infrastructures serveurs Être force de proposition sur les bonnes pratiques Cloud & systèmes
Freelance
CDI

Offre d'emploi
Directeur de projet - Risk Data Aggregation & Reporting (H/F)

STORM GROUP
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Safe

3 ans
50k-70k €
500-700 €
Île-de-France, France
Dans un contexte de renforcement des exigences réglementaires imposées aux établissements bancaires, notre client DSI met en œuvre la norme RDAR ( Risk Data Aggregation & Reporting ), visant à garantir la fiabilité, la traçabilité et la gouvernance des données de risque. Ce programme stratégique de plus de 10 M€ s’inscrit dans la continuité des travaux BCBS 239 et couvre l’ensemble du cycle de vie du projet, depuis les phases de cadrage amont jusqu’à la mise en production et la clôture. Missions principales : Phases amont & cadrage du programme – fortement apprécié Piloter les phases de pré-cadrage et de cadrage : définition du périmètre, des objectifs et des enjeux réglementaires. Conduire les études de faisabilité et les analyses d’impact (organisationnelles, techniques, budgétaires). Élaborer le business case et le dossier de lancement soumis au sponsor et aux instances de décision. Définir la vision cible, la stratégie de mise en œuvre et la structure de gouvernance du programme. Rédiger les documents de référence : charte de projet, plan de management, matrice RACI. Structurer le découpage en workstreams et lots de travaux (WBS) en cohérence avec la roadmap réglementaire. Animer les ateliers de cadrage avec les parties prenantes métier (Risk, Compliance, Finance) et IT. Pilotage du programme RDAR Assurer le pilotage global d’un programme supérieur à 10 M€, avec pleine responsabilité budgétaire. Conduire les travaux de mise en conformité à la norme RDAR au sein de la DSI bancaire. Définir et piloter la roadmap du programme en lien avec les équipes Risk, Finance et IT. Assurer le reporting d’avancement auprès des instances de gouvernance (CODIR, Comité Risques). Coordonner les workstreams métier et technique, en veillant à la cohérence d’ensemble. Gestion budgétaire & financière du programme Élaborer et suivre le budget programme (>10 M€) : plan de charge, forecast, atterrissage. Piloter les coûts par workstream et assurer la maîtrise des écarts budgétaires. Gérer les relations contractuelles avec les prestataires externes (cabinets, ESN, éditeurs). Produire les reportings financiers à destination du sponsor et des instances de gouvernance. Anticiper les risques de dérive budgétaire et mettre en place les plans correctifs. Traçabilité & gouvernance des données de risque Mettre en place les référentiels de traçabilité des données de risque ( data lineage, data quality ). Définir les règles de gestion et les normes de qualité des données en lien avec les équipes Data Office. Superviser la mise en œuvre des dispositifs de contrôle et d’auditabilité des flux de données. Piloter les travaux de cartographie des données critiques ( CDE – Critical Data Elements ). Coordination technique & Data Collaborer avec les équipes Data Engineering et Architecture sur les pipelines de données (Big Data, datalake , entrepôts). Valider les choix d’architecture technique garantissant la conformité réglementaire. Assurer l’interface entre les équipes métier (Risk, Compliance) et les équipes IT. Gestion des parties prenantes & reporting réglementaire Préparer les livrables destinés au régulateur (BCE, ACPR) et aux auditeurs internes. Animer les comités de pilotage et rédiger les comptes rendus d’avancement. Identifier et gérer les risques programme, mettre en place les plans de mitigation. Manager une équipe pluridisciplinaire de chefs de projet, business analysts et experts techniques.
CDI

Offre d'emploi
Technicien d’Exploitation Expert Linux - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

30k-34k €
Paris, France
Le contexte client : Le Technicien d'Exploitation Expert Linux assure l'exploitation et le maintien en condition opérationnelle des environnements Linux et Windows sur les postes de travail. Il réalise également des opérations d'infrastructure de niveau 1, et prend en charge le support fonctionnel de niveau 2 sur les applications scientifiques et internes. Il intervient en étroite collaboration avec les équipes systèmes (Linux et Windows), réseau, sécurité, développement logiciel et support applicatif. Vos responsabilités incluent : • Diagnostiquer et résoudre les incidents Linux et Windows poste de travail (niveau avancé). • Réaliser les tâches d'exploitation Linux : vérification de services, analyse de logs, exécution de scripts, opérations courantes. • Installer, configurer et mettre à jour les postes de travail Windows/Linux, logiciels standards ou spécifiques. • Assurer le support, la maintenance et le suivi opérationnel du parc utilisateurs. • Réaliser des interventions de niveau 1 sur l'infrastructure : supervision, redémarrages contrôlés, vérifications physiques, câblage simple. • Prendre en charge le support fonctionnel niveau 2 des applications scientifiques (MATLAB, SQL, outils de calcul) et des applications internes développées en environnement technique (C#, Python, outils maison...). • Analyser, reproduire, diagnostiquer et documenter les incidents applicatifs fonctionnels. • Travailler avec les équipes de développement / N3 pour les anomalies complexes. • Garantir la mise à jour des tickets, référentiels et éléments de la CMDB. • Contribuer au maintien en condition opérationnelle global des environnements Linux, Windows et applicatifs scientifiques. • Garantir un niveau d'exigence élevé en termes de qualité, confidentialité et disponibilité. • Création et gestion des comptes Active Directory. • Affectation des droits, groupes, ressources, dossiers partagés. • Contribuer à l'amélioration des outils, process et méthodes de travail. Contrat : en CDI Localisation : après 6 mois de formation dans les locaux du client à Bruyères‑le‑Châtel, la prestation aura lieu ensuite à Paris (75015). Autre : pas de télétravail possible Référence de l'offre : bhzp7dplk0
CDI

Offre d'emploi
Architecte Systèmes et Réseaux

Audensiel
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Kubernetes

40k-45k €
Rouen, Normandie
À propos du défi En tant qu'Architecte, vous ne vous contentez pas de maintenir des serveurs ; vous dessinez le futur technologique de Audensiel. Votre mission est de concevoir des infrastructures résilientes, évolutives et sécurisées qui soutiennent notre croissance et nos innovations. Vos missions principales Conception & Stratégie : Designer les architectures systèmes et réseaux (on-premise, cloud ou hybride) en garantissant la haute disponibilité. Évolution Technologique : Piloter la transition vers le "Tout-Automatisé" (IaC - Infrastructure as Code) et l'optimisation des performances. Sécurité & Conformité : Collaborer avec les équipes Cybersécurité pour intégrer les protocoles de défense dès la phase de conception. Expertise Conseil : Accompagner les équipes de développement et la DSI dans le choix des solutions techniques et la gestion de projets complexes. Veille Technologique : Anticiper les ruptures technologiques pour maintenir notre avantage compétitif.
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5617 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous