Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 316 résultats.
Freelance
CDI

Offre d'emploi
Consultant Data (H/F)

HOXTON PARTNERS
Publiée le
Qlik
Snowflake
Talend

4 mois
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme de structuration et d’optimisation des flux de données au sein d’un environnement international, nous recherchons un Consultant Data technico-fonctionnel confirmé afin d’accompagner les équipes dans la fiabilisation et l’exploitation des données. Missions Concevoir et maintenir les flux d’acquisition et de transformation de données Développer et optimiser les traitements ETL sous Talend Studio Structurer et exploiter les données au sein de l’environnement Snowflake Contribuer à la restitution et au pilotage des indicateurs via la BI Qlik Collaborer avec les équipes techniques et métiers pour assurer la cohérence des modèles de données
Freelance
CDI

Offre d'emploi
Chef de Projet IT Senior (Programme Data International)

Gentis Recruitment SAS
Publiée le
BI
KPI
Microsoft Excel

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation des systèmes d’information, un grand groupe international du secteur de l’énergie renforce son équipe IT afin de piloter un programme data transversal à l’échelle internationale. Le projet vise à structurer et industrialiser la gestion des données B2B au sein de plusieurs entités du groupe, en mettant en place des standards communs de gouvernance, de qualité de données et de reporting. L’objectif est de disposer d’une source de données fiable et harmonisée permettant d’améliorer la prise de décision dans plusieurs domaines : ventes, opérations, finance, gestion des risques et conformité carbone. Le programme s’inscrit dans un contexte international impliquant plusieurs pays et nécessite une coordination forte entre équipes métiers, équipes IT et responsables data. Missions principales Le consultant interviendra en tant que Chef de Projet IT Senior et aura pour responsabilités principales : Piloter la mise en place d’indicateurs et de métriques de performance sur plusieurs entités internationales Assurer l’onboarding et la coordination des différentes parties prenantes du programme Garantir le respect des objectifs projet en termes de périmètre, planning, budget et qualité Assurer la coordination entre les équipes IT, les architectes et les équipes métiers Piloter les processus de communication, gestion des risques, gestion des incidents et gestion du changement Superviser la livraison des développements IT conformément à la roadmap définie Produire les reportings et préparer les instances de gouvernance du programme Participer à la structuration de la gouvernance data et à l’alignement entre les différents streams du programme Livrables attendus Plan de suivi du projet Reporting d’activité et indicateurs de performance Tableaux de bord KPI Suivi de l’avancement des développements Documentation de gouvernance et supports pour les comités de pilotage Roadmap et plan de déploiement du projet à l’international Compétences techniques requises Gestion de projet IT (plus de 10 ans d’expérience) Pilotage de programmes internationaux Reporting et mise en place de KPI Plateformes décisionnelles et outils de reporting Modélisation de données Maîtrise avancée des outils bureautiques (Excel notamment) Compétences fonctionnelles Expérience significative dans des projets data ou BI Bonne compréhension des architectures fonctionnelles et des systèmes d’information Expérience de déploiement de projets dans des environnements internationaux Capacité à piloter des transformations impliquant plusieurs entités Compétences comportementales Leadership et capacité à embarquer les équipes Excellente communication écrite et orale Forte capacité d’analyse et de structuration Capacité à travailler dans un environnement complexe et évolutif Aptitude à coordonner des équipes multidisciplinaires Langues Anglais courant indispensable Français apprécié
Freelance

Mission freelance
Data Analyst confirmé

Codezys
Publiée le
Data visualisation
PySpark
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI

Offre d'emploi
Développeur PHP Laravel (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
Code Review
Jenkins

360k-540k €
Villeurbanne, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer

INFOGENE
Publiée le

40k-45k €
Lille, Hauts-de-France
Vous justifiez d’au moins 5 ans d’expérience en tant que Data Engineer dans un environnement technique exigeant. Vous avez une forte capacité d’analyse, aimez résoudre des problèmes complexes et construire des solutions scalables et durables. Vous êtes curieux(se), autonome et doté(e) d’un bon relationnel pour travailler efficacement avec des profils variés (techniques et métiers). Votre maîtrise de l’environnement cloud et votre esprit d’amélioration continue vous permettent de contribuer activement à l’évolution de la plateforme data de l’entreprise. Votre niveau d’anglais vous permet d’évoluer dans un contexte international et de lire de la documentation technique sans difficulté
Freelance

Mission freelance
Data analyst / Support analyst

UCASE CONSULTING
Publiée le
Microsoft Excel

3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Freelance
CDI
CDD

Offre d'emploi
Architecte data - Secteur Industrie

OCTOGONE
Publiée le
Cybersécurité

2 ans
Hauts-de-Seine, France
Objectif : Garantir la cohérence, la pérennité et la sécurité de l'ensemble des solutions techniques et applicatives déployées Concevoir l'architecture des données (modèles, flux, stockage, plateformes). Définir les principes de gouvernance et de qualité des données. Garantir la sécurité et l'exploitabilité de la data. TELETRAVAIL : 2 jours / semaine / Déplacements possibles à l’étranger dans le cadre de certaines missions Une expérience en environnement Industriel - Usine est obligatoire
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance
CDI

Offre d'emploi
Data Engineer Azure

VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse

2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Data Manager

Tenth Revolution Group
Publiée le
DBT
Snowflake

1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance

Mission freelance
Tech Lead Data (AWS/BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud

8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-50k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par Data ingénieur ? Ce poste est fait pour vous. En tant que Data ingénieur, vous êtes responsable du développement et de la fiabilisation de notre écosystème : Côté build : Concevoir et développer les flux d’alimentation des KPIs sur les projets GENAI Construire les flux d’alimentation des KPIs Opérations Groupe (pilotage de l’activité des plateaux de gestion) Développer et maintenir les pipelines d’ingestion et de transformation de données Modéliser les données et structurer les couches de transformation (via dbt) Optimiser les performances des requêtes SQL et la qualité des données Participer aux choix d’architecture et aux bonnes pratiques Data Engineering Côté run : Superviser et maintenir les flux d’ingestion existants Garantir la qualité, la fiabilité et la disponibilité des données Corriger les incidents et assurer le support technique auprès des équipes métiers Mettre en place des contrôles et monitoring des pipelines Assurer l’évolution continue des flux en fonction des besoins projets Documenter les flux et les modèles de données C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez structurer, industrialiser et fiabiliser la donnée sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration transverse. C’est votre expertise : Excellente maîtrise de SQL (obligatoire) Expérience confirmée sur Talend (développement de flux d’ingestion) (obligatoire) Maîtrise de dbt pour la transformation et la modélisation des données Bonne compréhension des architectures data modernes (ELT, pipelines, data warehouse) Python serait un plus apprécié Expérience en environnement Agile / DevOps Connaissance des environnements Cloud appréciée C’est votre manière de faire équipe : Esprit analytique et rigueur Sens du service et orientation métier Capacité à travailler en transverse avec des équipes techniques et opérationnelles Autonomie et proactivité Goût pour l’amélioration continue Communication claire et structurée C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours Salaire : De 40 000€ à 50 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Architecte IT

Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure

12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
4316 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous