Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 656 résultats.
Freelance

Mission freelance
DevSecOps AWS

Tenth Revolution Group
Publiée le
AWS Cloud

3 mois
160-650 €
Paris, France
Dans un contexte de forte accélération produit et de mise en conformité sécurité , notre client renforce son équipe plateforme avec un DevSecOps AWS senior pour sécuriser et industrialiser ses pipelines CI/CD et ses environnements cloud. Missions principales Concevoir et maintenir des pipelines CI/CD sécurisés (GitLab CI / GitHub Actions / Jenkins) Implémenter une approche Security by Design sur les environnements AWS Déployer et maintenir l’ Infrastructure as Code (Terraform principalement) Intégrer des outils de sécurité dans les pipelines : SAST / DAST Scan de dépendances Scan d’images Docker Renforcer la gestion des secrets & des identités (IAM, Secrets Manager, Vault) Participer à la mise en conformité ISO 27001 / SOC2 / RGPD Travailler en étroite collaboration avec équipes Dev, Sec & Platform Environnement technique Cloud : AWS (EKS, EC2, RDS, S3, IAM, CloudTrail, GuardDuty) CI/CD : GitLab CI ou GitHub Actions IaC : Terraform (mandatory) Conteneurs : Docker, Kubernetes (EKS) Sécurité : Trivy, SonarQube, Snyk, OWASP ZAP, AWS Security Hub Monitoring : Prometheus, Grafana, CloudWatch
CDI

Offre d'emploi
Développeur PHP Laravel (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
Code Review
Jenkins

360k-540k €
Villeurbanne, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Intégrateur Technique /Gestionnaire Env. H/F

Insitoo Freelances
Publiée le
Administration linux
Azure Kubernetes Service (AKS)
Linux

2 ans
252-336 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Paris et Marseille et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Intégrateur Technique /Gestionnaire Env. H/F à Aix-en-Provence, France. Contexte : La prestation porte sur la gestion et l’industrialisation des environnements de recette Les missions attendues par le Intégrateur Technique /Gestionnaire Env. H/F : Déploiement des applications sur les différentes plateformes. Exécution et suivi des tests d’accrochage technique (tests automatisés). Validation de la conformité globale des environnements avant mise à disposition des équipes fonctionnelles. Prise en charge des incidents, analyse des causes racines, suivi et documentation. Collaboration étroite avec les équipes de développement et d’exploitation pour sécuriser les livraisons. Mise en place de procédures de surveillance, reporting, et industrialisation des gestes techniques (scripts, automatisation) Compétences indispensables Bases solides en Unix/Linux (commandes, gestion de services, logs). Compréhension des cycles de développement et environnements de recette. Déploiement d’applications sur différentes plateformes. Analyse d’incidents, qualification, escalade au niveau 2 si nécessaire. Bonne capacité de communication et travail avec équipes Dev / Exploit. Compétences souhaitées (idéal mais non obligatoires) Connaissances Kubernetes (K8s) et plateformes conteneurisées . Maitrise de ArgoCD ou d'un autre outil GitOps. Notions de pratiques DevOps . Scripting ( Shell , éventuellement Python). Idéalement : notions de développement (Java / Angular) — non exigé . Localisation : Aix-en-Provence (13) Télétravail : 2j/5
CDI
Freelance

Offre d'emploi
Senior Data Engineer – Data Platform

Clostera
Publiée le
Cloud
Google Cloud Platform (GCP)
Java

1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Aujourd’hui nous recherchons un Senior Data Engineer F/H pour intégrer un grand groupe du retail qui renforce ses équipes data afin de soutenir une architecture data-centric . Ce que vous ferez : Développement de la Plateforme Data Développer et maintenir des pipelines de données au sein de la plateforme Participer à la mise en œuvre de projets métiers basés sur l’ETL interne Intervenir sur les traitements ELT via DBT Développement et maintenance Développer et documenter du code data robuste Corriger les incidents et anomalies liés aux traitements data Appliquer les bonnes pratiques de développement Architecture et traitement de données Travailler sur des volumétries importantes de données Participer à la conception et à l’évolution des architectures data Contribuer à l’automatisation des processus de livraison DevOps & industrialisation Mettre en œuvre les pratiques DevOps Participer à l’automatisation du delivery Contribuer aux chiffrages techniques et aux releases Collaboration & méthodes Travailler en équipe Scrum Collaborer avec les équipes data, plateforme et métiers Participer à la montée en compétence de l’équipe
Freelance

Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes

Almatek
Publiée le
JIRA

6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Freelance
CDI

Offre d'emploi
Senior Cloud Network Engineer AWS

Groupe Aptenia
Publiée le
AWS Cloud
CI/CD
Network

6 mois
Paris, France
Nous recherchons un(e) ingénieur(e) senior spécialisé(e) en network automation sur AWS . Vous concevez et industrialisez des infrastructures réseau cloud à grande échelle (VPC, VPN site-to-site, IPsec), en vous appuyant fortement sur l’ Infrastructure as Code (Terraform/CDK) et le développement Python . Vous construisez des plateformes automatisées (landing zones, network factories, CI/CD), intégrez la sécurité dès la conception et garantissez la scalabilité et la résilience des environnements. Le poste est orienté build & design , loin du RUN ou du réseau traditionnel.
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-50k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par Data ingénieur ? Ce poste est fait pour vous. En tant que Data ingénieur, vous êtes responsable du développement et de la fiabilisation de notre écosystème : Côté build : Concevoir et développer les flux d’alimentation des KPIs sur les projets GENAI Construire les flux d’alimentation des KPIs Opérations Groupe (pilotage de l’activité des plateaux de gestion) Développer et maintenir les pipelines d’ingestion et de transformation de données Modéliser les données et structurer les couches de transformation (via dbt) Optimiser les performances des requêtes SQL et la qualité des données Participer aux choix d’architecture et aux bonnes pratiques Data Engineering Côté run : Superviser et maintenir les flux d’ingestion existants Garantir la qualité, la fiabilité et la disponibilité des données Corriger les incidents et assurer le support technique auprès des équipes métiers Mettre en place des contrôles et monitoring des pipelines Assurer l’évolution continue des flux en fonction des besoins projets Documenter les flux et les modèles de données C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez structurer, industrialiser et fiabiliser la donnée sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration transverse. C’est votre expertise : Excellente maîtrise de SQL (obligatoire) Expérience confirmée sur Talend (développement de flux d’ingestion) (obligatoire) Maîtrise de dbt pour la transformation et la modélisation des données Bonne compréhension des architectures data modernes (ELT, pipelines, data warehouse) Python serait un plus apprécié Expérience en environnement Agile / DevOps Connaissance des environnements Cloud appréciée C’est votre manière de faire équipe : Esprit analytique et rigueur Sens du service et orientation métier Capacité à travailler en transverse avec des équipes techniques et opérationnelles Autonomie et proactivité Goût pour l’amélioration continue Communication claire et structurée C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours Salaire : De 40 000€ à 50 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
DBA Expert MongoDB – PaaS Azure (H/F)

AVA2I
Publiée le
Azure
Maintien en condition opérationnelle (MCO)
Mongodb

3 ans
550-670 €
La Défense, Île-de-France
🎯 Contexte Dans le cadre du renforcement de ses équipes IT et de l’évolution de plateformes data vers le cloud, un grand groupe international du secteur de l’énergie recherche un DBA expert MongoDB pour intervenir sur des environnements PaaS Azure à forte criticité . Le rôle est résolument opérationnel et technique : il s’agit d’un référent MongoDB , capable d’intervenir en profondeur sur la plateforme, et non d’un poste d’architecte . 🛠️ Missions En tant que DBA MongoDB expert, vous intervenez sur : Administration et exploitation de bases MongoDB en environnement PaaS Azure Maintien en Conditions Opérationnelles (MCO) : Performance Disponibilité Sécurité Optimisation des bases : Tuning Gestion des index Gestion des volumes Réplication Gestion des incidents complexes (N2 / N3) Montées de version et opérations de maintenance Support aux équipes applicatives Mise en place et suivi des bonnes pratiques : Sauvegardes Restauration Supervision ⚙️ Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting : PowerShell, Python ou équivalent Supervision, sécurité, haute disponibilité
Freelance

Mission freelance
Data Analyst Lutte contre la fraude

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python

2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Freelance
CDI

Offre d'emploi
Ingénieur de Production Devops Sénior (Kubernetes, Control M, GitLab, Scripting, Linux)

Taimpel
Publiée le
Ansible
Control-M
Dynatrace

3 ans
50k-57k €
440-500 €
Yvelines, France
FICHE DE POSTE – IP DEVOPS CONFIRMÉ Contexte de la mission Dans le cadre d’un renforcement d’équipe, un client bancaire ouvre un poste en prestation longue durée au sein d’une équipe production applicative intervenant sur des applications sensibles, quasi temps réel . L’environnement est décrit comme bienveillant , avec un responsable proche de son équipe (environ 20 personnes ), favorisant la collaboration, l’accompagnement technique et la montée en compétence collective. Objectifs de la mission Assurer la stabilité, la fiabilité et l’industrialisation des environnements de production applicative Accompagner les équipes de développement dans l’ intégration des contraintes production Contribuer activement à la démarche DevOps et à l’automatisation des processus Intervenir sur des applications critiques à forte exigence de disponibilité et de performance Missions principalesProduction & DevOps Intervenir en production applicative sur des applications sensibles et quasi temps réel Participer à la mise en œuvre et à l’amélioration des chaînes DevOps Automatiser les tâches récurrentes via Shell et Ansible Réaliser des projets d’automatisation (création de playbooks Ansible, industrialisation) Kubernetes Intervenir sur des environnements Kubernetes avec un rôle expert Accompagner les équipes de développement pour : l’intégration des applications en production la prise en compte des contraintes d’exploitation les bonnes pratiques de déploiement et d’exploitation Attendu : au-delà d’un simple usage , capacité à accompagner, conseiller et guider les développeurs CI/CD & Outillage Utiliser GitLab avec des connaissances approfondies (au-delà du simple usage) Participer à la conception, l’évolution et l’optimisation des pipelines Travailler avec Control-M : création de chaînes structuration et exploitation des traitements Utilisation de CFT (niveau utilisateur) Supervision & Exploitation Exploitation et suivi des environnements sous Linux (majoritairement) Supervision applicative et infrastructure via Dynatrace Diagnostic et résolution d’incidents de production Contribution à l’amélioration continue de la qualité de service Profil recherché IP DevOps confirmé Minimum 8 ans d’expérience en production applicative Expérience impérative sur des applications sensibles et à fortes contraintes de disponibilité Très bon niveau technique avec un mindset DevOps Capacité à : communiquer efficacement accompagner les équipes être force de proposition s’adapter rapidement Savoir-être attendu Ouvert Technique Motivé Adaptable Bon communicant Contraintes & modalités Démarrage : courant février Localisation : Saint-Quentin-en-Yvelines Télétravail : 2 jours par semaine Durée de mission : 3 ans RÉCAPITULATIF DES TECHNOLOGIES • ORCHESTRATION / CONTAINERS : Kubernetes • CI / CD & VERSIONING : GitLab • ORDONNANCEMENT & TRANSFERTS : Control-M, CFT • AUTOMATISATION & SCRIPTING : Ansible, Shell • SUPERVISION : Dynatrace • BASES DE DONNÉES (USAGE) : MySQL, MongoDB • SYSTÈMES D’EXPLOITATION : Linux • CONTEXTE : Applications sensibles, quasi temps réel, production applicative bancaire
Freelance

Mission freelance
Expert en gestion des accès PAM

Codezys
Publiée le
Azure
cyberark
Wallix

12 mois
Lille, Hauts-de-France
Contexte Dans le cadre de la sécurisation des accès critiques et de la transition vers un modèle Zero Trust, une expertise en gestion des accès à privilèges (PAM) est recherchée. Objectifs de la mission Concevoir, déployer et optimiser les stratégies de contrôle d'accès sur un périmètre hybride (datacenters locaux et environnements Cloud GCP et Azure). Intégrer une nouvelle solution PAM, compatible avec les outils existants ou pouvant les remplacer. Responsabilités clés Architecture & Design : Collaborer avec le Tech Lead pour définir et mettre en place une architecture PAM unifiée couvrant l'on-premise et le cloud. Déploiement Multi-Cloud : Configurer les connecteurs et coffres-forts pour sécuriser les consoles d'administration, comptes de service et accès "Break-glass" GCP/Azure. Gestion des Secrets : Implémenter des solutions pour la gestion des secrets dans les pipelines CI/CD et applications, éliminant l'usage de mots de passe en clair. Politiques de Sécurité : Définir les règles de rotation des mots de passe, déployer l'authentification multi-facteurs (MFA) et appliquer le principe du moindre privilège. Migration & Intégration : Superviser l'intégration des comptes à privilèges élevés (Admin Domain, Cloud Admin, Root) dans la solution PAM. Audit & Gouvernance : Mettre en place la journalisation des activités et l'enregistrement des sessions pour assurer conformité et détection SOC.
CDD
CDI
Freelance

Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD

KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
RGPD

18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance

Mission freelance
ARCHITECTE INFRASTRUCTURE - habilitable- anglais courant H/F

Cheops Technology
Publiée le
AWS Cloud
Cloud
Microsoft SQL Server

9 mois
530-600 €
Massy, Île-de-France
Dans un contexte de cybersécurité accru, notre client a pour objectif de sécuriser davantage son Système d’Information. De plus, afin de rester leader, nous devons accompagner nos métiers dans la mise en place de nouvelles solutions. Pour ce faire, nous devons rédiger les dossiers d’architecture technique des solutions. Mission: Design de l’architecture technique des solutions demandées sur ses sites France et international, en fonction de nombreuses caractéristiques et contraintes, en garantissant une certaine cohérence technique et le maintien du système d'information tout au long de son évolution, en étudiant son impact sur l'architecture déjà existante ou future. •CLOUD •Stockage, Sauvegarde, •Virtualisation, Systèmes •Réseau •SQL Serveur •Systèmes d’exploitation Windows. •IIS
Freelance

Mission freelance
Développeur java react aws

Cherry Pick
Publiée le
AWS Cloud
IA
Java

12 mois
500-550 €
Paris, France
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production.
Freelance

Mission freelance
Data ingénieur Databricks  & Power BI Full remote ASAP

WorldWide People
Publiée le
Databricks

6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
5656 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous