L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 470 résultats.
Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps
Publiée le
Architecture
Azure
Cloud
12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Offre d'emploi
Chef de Projet Datacenter – Déménagement IT (H/F)
Publiée le
Data Center
Réseaux
Serveur
1 an
Strasbourg, Grand Est
Contexte de la mission Le consultant interviendra en tant que Chef de Projet spécialisé dans le déménagement de Datacenters pour une grande organisation du secteur IT et infrastructure. La mission implique la planification, coordination et suivi de toutes les phases du projet , en lien avec les équipes techniques et les prestataires. Des interventions en horaires non ouvrés (HNO) seront nécessaires sur site à Strasbourg. Objectif Assurer le déménagement sécurisé et optimisé des infrastructures IT , en garantissant la continuité des services et le respect des délais, budgets et standards de qualité. Responsabilités principales Piloter l’ensemble du projet de déménagement de Datacenters (serveurs, stockage, réseau). Planifier et coordonner les ressources internes et externes. Assurer la communication et le reporting auprès des parties prenantes. Superviser la mise en œuvre technique et logistique des transferts. Garantir la sécurité, l’intégrité et la disponibilité des infrastructures durant le déménagement. Anticiper et résoudre les risques et incidents opérationnels. Participer aux tests de validation et post-migration pour assurer la conformité des systèmes. Compétences et expériences requises Expérience confirmée en gestion de projets IT complexes , idéalement dans le déménagement de Datacenters. Très bonne maîtrise des infrastructures IT : serveurs, stockage, réseau, virtualisation. Capacité à gérer des projets multi-équipements et multi-sites . Aptitude à travailler sur site avec des interventions HNO . Excellentes compétences en coordination d’équipes et communication .
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Offre d'emploi
Business Analyst Data Management - Nantes
Publiée le
Business Analyst
Data management
JIRA
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Mission freelance
Data Analyst Informatica
Publiée le
Azure
ETL (Extract-transform-load)
Informatica
1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Mission freelance
Process & Data Analyst
Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)
1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
Mission freelance
Expert Openstack - Leader technique
Publiée le
Ansible
DevOps
OpenStack
6 mois
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Au sein d'un grand groupe en pleine transformation, vous intégrez l'équipe Openstack pour relever un challenge stratégique : la refonte et l'industrialisation du socle Cloud Privé. L'environnement est composé de plusieurs plateformes OpenStack déployées par vagues successives. L'objectif est d'unifier ces infrastructures en une plateforme socle résiliente multi-sites, destinée à devenir l'hébergeur principal des clusters Kubernetes du groupe à l'échelle internationale. Vos Responsabilités Leadership Technique & Coaching : Véritable mentor, vous assurez la montée en compétences d'une équipe composée de profils internes. Vous guidez les choix d’architecture, challengez les solutions et sécurisez le delivery. Ingénierie de pointe : Vous assurez le maintien en conditions opérationnelles (MCO) et l'évolution des plateformes OpenStack dans un environnement critique fonctionnant en 24/7. Stockage Haute Disponibilité : Vous pilotez l’administration et l’optimisation des clusters Ceph pour garantir la résilience et l'intégrité des données. Industrialisation & Transition : Vous accélérez l'automatisation via Ansible et préparez activement le socle pour l’arrivée massive de Kubernetes/OpenShift. Documentation & Gouvernance : Vous êtes garant de la documentation technique (DAT/DEX) et de la transmission des connaissances pour éviter toute perte d'expertise.
Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau
Publiée le
Architecture
6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Offre d'emploi
Data Analyst
Publiée le
MySQL
SAS
6 mois
29k-34k €
250-280 €
Le Mans, Pays de la Loire
Objectifs de la mission Dans le cadre d’activités de pilotage et d’analyse, nous recherchons un Chargé d’Études Statistiques maîtrisant SAS afin de réaliser des travaux d’extraction, de contrôle qualité, d’analyse et de restitution auprès des équipes métier. Livrables attendus Jeux de données fiables issus des extractions SAS Rapports d’analyses Contrôles de cohérence et de qualité des données Tableaux de bord de pilotage Notes de synthèse et documents de restitution Recommandations sur l’amélioration des processus Missions Réaliser des extractions de données via SAS Manipuler, structurer et nettoyer les données Effectuer les contrôles qualité sur les données produites Analyser les résultats et produire les indicateurs de pilotage Rédiger et présenter les analyses aux équipes métier Contribuer à la fiabilisation des référentiels data Échanger avec les équipes métier pour comprendre les besoins et restituer les résultats Profil recherché Bac +3 à Bac +5 en statistiques, mathématiques appliquées, data analysis ou domaine équivalent Expérience confirmée en tant que Chargé d’Études Statistiques, Data Analyst ou équivalent Maîtrise de SAS (SAS Base, Macro) Aisance dans la manipulation de données volumineuses Capacité d’analyse et de synthèse Bon relationnel et capacité à interagir avec les équipes métier Rigueur, autonomie, sens du contrôle et de la qualité des données Compétences techniques SAS Base / SAS Enterprise Guide SQL apprécié Connaissances en qualité de données et data management appréciées Connaissance du secteur assurance est un plus Soft skills Rigueur Autonomie Communication claire Travail en équipe Capacité d’adaptation
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Mission freelance
Consultant Expert Data IA
Publiée le
Powershell
SAS
1 an
550-600 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Consultant Expert Data IA. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Tâches : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs du Client dans le PP Data et au delà.
Offre d'emploi
Architecte Fabric Power BI / Data Platform
Publiée le
Azure
Data Lake
microsoft
6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Offre d'emploi
Consultant(e) Data Analyst F/H-Niort
Publiée le
LCB-FT
Python
SQL
120 jours
38k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Analyst pour notre cabinet à Niort🚀 En tant que Consultant(e) Data Analyst , vous interviendrez : Chez les clients, selon le cadre et les objectifs définis : Concevoir et mettre en œuvre des scénarios LCBFT (algorithmes de détection d’alertes LCBFT) et assurer leur maintenance. Participer à l’exploration des données pour : Identifier les sources pertinentes. Évaluer la qualité et la cohérence des données. Définir les indicateurs et règles métier avant la mise en production Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Mission freelance
Consultant Data Snowflake SQL
Publiée le
Snowflake
SQL
12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
2470 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois