Ha pasado un mes intenso desde nuestra última entrega. Tres semanas en las que Apple ha lanzado Swift 6.3, ha anunciado la WWDC26, ha puesto freno a las apps de vibe coding en el App Store y ha dado de paso un empujón a todo el ecosistema de herramientas agentivas. Y mientras tanto, la comunidad no ha parado: nuevos libros, nuevas series educativas y un debate que no se apaga sobre qué significa realmente saber usar la inteligencia artificial en desarrollo. Vamos con todo.
El 24 de marzo, Apple publicó Swift 6.3 y con él llegó uno de los movimientos más significativos de los últimos años: el primer SDK oficial de Swift para Android. No es un port experimental ni un hack de la comunidad. Es Apple proporcionando las herramientas para desarrollar programas nativos Android escritos en Swift e integrarlos en apps Kotlin o Java existentes a través de Swift Java y Swift Java JNI Core. Swift deja de ser un lenguaje exclusivo del ecosistema Apple para convertirse, oficialmente, en un lenguaje multiplataforma.
Pero hay más, y no poco.
@c: Swift habla C de primera claseLa novedad más técnica de Swift 6.3 es el nuevo atributo @c, que formaliza el viejo @_cdecl que muchos ya usábamos con cierto temor. Ahora puedes exponer funciones y enums Swift directamente a código C/C++ de forma limpia:
@c("MyLibrary_processData")
func processData(_ buffer: UnsafePointer<UInt8>, count: Int) -> Int32 {
// implementación Swift accesible desde C
}Combinado con @implementation, el compilador valida que la firma Swift coincida con una declaración preexistente en un header C, permitiendo reemplazar implementaciones C con Swift de forma gradual y segura. Para quienes trabajan en proyectos mixtos Swift/C++ o en frameworks multiplataforma, esto cambia las reglas del juego.
Si alguna vez has tenido dos módulos importados con funciones del mismo nombre y has maldecido en voz baja, Swift 6.3 te trae module selectors con la sintaxis :::
ModuleA::getValue() // llama a getValue de ModuleA
ModuleB::getValue() // llama a getValue de ModuleB
Swift::Task { ... } // referencia explícita al Task de SwiftParece menor, pero en proyectos grandes con decenas de dependencias es una mejora de calidad de vida enorme.
Tres nuevos atributos para quienes construyen frameworks y paquetes: @specialize (preespecializar genéricos para tipos concretos frecuentes), @inline(always) (garantizar inlining en cada call site) y @export(implementation) (exponer el cuerpo de funciones en librerías ABI-estables para optimización cross-module). Son herramientas que no vas a usar todos los días, pero que hacen que tus dependencias sean más rápidas sin que tú hagas nada.
Swift 6.3 incluye una preview de Swift Build integrada en Swift Package Manager: un motor de compilación unificado para Apple, Linux, Windows y Android. Todavía es preview, pero la dirección es clara.
En Swift Testing, siete propuestas implementadas: warnings con severidad, cancelación de tests con try Test.cancel() y attachments de imágenes en Apple y Windows. Y en Embedded Swift, mejoras sustanciales: impresión de flotantes sin dependencias externas, los atributos @section y @used para control de layout en memoria, y mejoras de debugging en LLDB que permiten interpretar direcciones de memoria como tipos Swift con nombre.
Todo esto llega empaquetado con Xcode 26.4 e iOS 26.4, que además traen novedades en el Foundation Models framework: una nueva propiedad contextSize y el método tokenCount(for:) para gestionar la ventana de contexto de 4.096 tokens. El changelog completo en swift.org/blog/swift-6.3-released.
Y hablando de concurrencia —que Swift 6.3 sigue puliendo con region-based isolation ya en producción—, los chicos de Point-Free han arrancado una nueva serie sobre Isolation que merece mucho la pena. Tres episodios en marzo: Ep. 357: What Is It? define el concepto según las propuestas de Swift Evolution, Ep. 358: Legacy Locking explora data races y locks pre-concurrencia, y el Ep. 359: Modern Locking cierra el ciclo mostrando por qué NSLock sigue teniendo data races sutiles y cuál es la alternativa moderna. Si la concurrencia en Swift 6 te parece un laberinto, esta serie es el hilo de Ariadna que necesitas. Les perdonamos que crearán TCA por esto 😉
Mientras Swift 6.3 salía por la puerta grande, Apple cerraba otra con pestillo. A mediados de marzo se confirmó lo que muchos llevaban semanas sospechando: Apple ha bloqueado actualizaciones de Replit y Vibecode, las dos apps más populares de vibe coding —el término de moda para generar apps completas mediante prompts de lenguaje natural sin escribir una línea de código—.
El motivo oficial es la directriz 2.5.2 de App Review: las apps no pueden descargar, instalar ni ejecutar código que altere funcionalidades. Apple objeta que las apps generadas se muestren en web views embebidas dentro de la app. Replit espera aprobación si abre las apps generadas en un navegador externo; a Vibecode le han pedido eliminar directamente la funcionalidad de publicar en el App Store.
El contexto es revelador: el año pasado el App Store recibió 550.000 apps, muchas de ellas generadas con herramientas de este tipo. Apple ha decidido que la calidad importa más que el volumen, y está poniendo freno a la avalancha de apps de baja calidad que estaba saturando App Review.
En Apple Coding le hemos dedicado un vídeo que no se anda con rodeos: “Vibe Coding: la mayor estafa del desarrollo que ha roto el App Store”. Un análisis sin pelos en la lengua sobre qué ha provocado esta situación y por qué Apple ha dicho basta.
Y la reflexión que llevamos tiempo haciendo sigue siendo la misma: la IA sin criterio ni conocimiento no sirve para desarrollos complejos como una app móvil. Puedes generar código con un prompt, sí. Pero sin entender la arquitectura, los patrones de diseño, el ciclo de vida de una app, las guidelines de Apple, la gestión de memoria, la concurrencia... lo que obtienes es un castillo de naipes que se cae en cuanto sopla un poco de viento. Y Apple acaba de confirmarlo oficialmente.
Si estás en ese punto —ya sea porque quieres entrar en el mundo del desarrollo Apple o porque necesitas ponerte al día con Swift moderno, SwiftUI y las herramientas actuales—, el Swift Developer Program 2026 empieza el próximo 7 de abril y aún quedan plazas. Dos meses intensivos con Swift 6, SwiftUI con Liquid Glass y Xcode Agentic Coding, más 13 semanas de proyecto final guiado. Lo imparte Marc Hervera. Solo 40 plazas, financiación disponible. Es la formación más completa para convertirse en desarrollador iOS profesional, con los fundamentos que ninguna IA puede darte por sí sola.
Cuando analizamos el MacBook Neo en la newsletter anterior, las preguntas eran las de siempre: ¿puede un chip de iPhone mover macOS de verdad? ¿8 GB de RAM son suficientes? ¿Esto es un Mac o un juguete? Tres semanas después, los números han respondido con contundencia.
Tim Cook publicó el 20 de marzo que el Mac acababa de registrar su mejor semana de lanzamiento en nuevos usuarios de la historia de Apple. Aunque no mencionó el Neo por nombre, nadie tiene dudas de a qué equipo se refiere: el portátil de 599 dólares ha provocado lo que TechRadar ha descrito como “escasez al estilo iPhone”. A día de hoy, todas las configuraciones en Estados Unidos están agotadas online, con entregas estimadas en abril. TrendForce proyecta entre 4 y 5 millones de unidades vendidas en 2026, y Ming-Chi Kuo cifra entre 2 y 2,5 millones solo en el primer semestre.
Las reviews han sido una sucesión de sorpresas. Tom’s Hardware lo llamó “un game-changer a precio de ganga”, 9to5Mac dijo que es “un Mac verdaderamente bueno a un precio increíble”, y Macworld lo resumió en un “sorprendentemente bueno”. Los benchmarks cuentan la misma historia: 3.461 puntos en single-core —un 47% más rápido que el M1 y a solo un 6-7% del M4—, mientras que en multi-core iguala al MacBook Air M1. Macworld llegó a abrir 60 pestañas de Chrome con YouTube, Google Docs, hojas de cálculo y apps en segundo plano sin un solo beach ball. Los 8 GB, en uso real, están aguantando mucho mejor de lo que el papel sugería.
¿Y las limitaciones? Las que ya dijimos: para compilación sostenida, modelos de IA locales o trabajo multi-core intensivo durante horas no es el equipo adecuado. Pero para todo lo demás —y eso incluye a muchísima gente que nunca había considerado un Mac—, el Neo ha cambiado la conversación. IDC lo ha definido como “uno de los anuncios más importantes en la historia del Mac”, y los analistas coinciden en que está atrayendo a usuarios de Windows y Chromebook en números que Apple no había visto antes.
En Apple Coding le dedicamos un vídeo que se ha convertido en uno de los más vistos del canal: “Por qué el MacBook Neo funciona tan bien (y por qué te han mentido sobre los 8 GB)”. Desmontamos tres mitos persistentes —el chip “móvil”, los 8 GB como sentencia de muerte y la gestión de núcleos— con datos y sin rodeos. Si aún no lo has visto, pásate por YouTube y de paso suscríbete si no lo estás: es la mejor forma de no perderte estos análisis.
Marzo ha sido el mes en que el ecosistema de agent skills para Xcode ha explotado.
Paul Hudson publicó su SwiftUI Agent Skill, un skill open-source que identifica y corrige errores comunes que cometen los LLMs al generar código SwiftUI. En menos de una semana se convirtió en el skill más protagonizado en GitHub. Además, ha creado el repositorio Swift Agent Skills, un directorio curado de skills para la comunidad, junto con skills específicos para SwiftData y Swift Testing.
Antoine van der Lee, por su parte, lleva todo marzo publicando sobre desarrollo agentivo en SwiftLee: desde un framework de 9 pasos para elegir el skill adecuado, hasta los retos de trabajar con múltiples proyectos en entornos agentivos, pasando por cómo usar MCPs para optimizar productos con datos reales de Amplitude.
La tendencia es clara: el desarrollo agentivo ha dejado de ser experimental y se ha convertido en el tema dominante del ecosistema Swift. Pero hay un matiz importante que se pierde en la euforia: “usar IA” no es la habilidad. La habilidad es saber cómo usarla. Saber qué pedirle y qué no. Saber cuándo un agente te está ahorrando horas y cuándo te está metiendo en un agujero que tardarás días en salir. Saber diseñar los flujos, el orden, las herramientas.
Y ahí es donde entra el Swift Agentic Engineering Program. No existe ahora mismo ninguna formación que te enseñe esto con la profundidad que necesitas —y no lo decimos como opinión, lo decimos porque hemos mirado—. Este programa no solo te enseña cómo funciona la IA aplicada al desarrollo, sino que te da las herramientas, los flujos y el orden necesario para convertirte en la persona más productiva de tu equipo. Claude Code, Codex, Model Context Protocol, Foundation Models de Apple, agent skills... todo integrado en un programa de 60 horas en directo, con proyecto real. Es la diferencia entre usar la IA como un juguete y usarla como un profesional. Incluso crearás una app desde 0, un MCP, que será la memoria persistente de tus proyectos y tareas… nativa en Swift. Algo que nadie más tiene.
Natalia Panferova —fundadora de Nil Coalescing y antigua miembro del equipo de SwiftUI en Apple— acaba de publicar The SwiftUI Way, y es un imprescindible.
El libro es una guía de campo para desarrolladores intermedios y avanzados que sienten que están “luchando contra el framework” en vez de trabajar con él. Cubre seis áreas clave: mentalidad composicional, modelado de dependencias de datos, optimización de actualizaciones de vistas, carga eficiente de datos, construcción de interfaces estables y performantes, y estilizado con convenciones de plataforma y accesibilidad.
Lo que lo hace especial no es solo el contenido —que es excelente— sino la perspectiva: Natalia trabajó en el equipo que diseñó las APIs de SwiftUI. Sabe por qué las cosas funcionan como funcionan, y eso se nota en cada capítulo. El precio es de 35 dólares con un sample chapter gratuito en la web. iOS Dev Weekly ya lo ha destacado en su Issue 746 como lectura recomendada. Si trabajas con SwiftUI a diario, hazte un favor y léelo.
Apple confirmó el 23 de marzo que la WWDC26 se celebrará del 8 al 12 de junio. Formato principalmente online, con evento presencial en Apple Park el día 8. Los rumores más persistentes apuntan a que Apple presentará Core AI, un framework que reemplazaría a Core ML con soporte nativo para LLMs y modelos de difusión on-device. Si se confirma, será el cambio más importante en la estrategia de IA de Apple desde la introducción de Core ML en 2017.
También se anunciaron los ganadores del Swift Student Challenge 2026: 350 estudiantes (50 Distinguished Winners) que recibirán unos AirPods Max 2 y un año de membresía del Developer Program. Los Distinguished Winners visitarán Apple Park.
Ha sido un mes de los que marcan líneas en la arena. Swift 6.3 ha cruzado la frontera de Android y ha formalizado la interoperabilidad con C. Apple ha dicho “hasta aquí” con el vibe coding en el App Store. Y el ecosistema de desarrollo agentivo ha madurado lo suficiente como para que la pregunta ya no sea “¿debería usar agentes?” sino “¿sé usarlos bien?”. La respuesta honesta para la mayoría es que no, todavía no. Y por eso formarse —ya sea desde cero con el SDP26 o en agentivo con el SAEP— es la mejor inversión que puedes hacer antes de que llegue la WWDC26 en junio.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y Good Apple Coding.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Apple cumplió lo prometido. En tres días —del 2 al 4 de marzo— llegaron el MacBook Neo, el iPhone 17e, el iPad Air con M4, el MacBook Air M5 y el MacBook Pro con M5 Pro y M5 Max. Sin keynote, sin escenario, pero con un catálogo renovado de arriba a abajo que hace semanas que no veíamos. Esta semana toca diseccionarlo todo: specs reales, precios finales en dólares y en euros, y —lo que más nos interesa— qué significa cada uno de estos equipos para los que vivimos de desarrollar en el ecosistema Apple.
Nota sobre precios: los precios en dólares son antes de impuestos, que varían según el estado de USA. Los precios en euros incluyen el IVA europeo (~20-25%).
El MacBook Neo (sí, ese nombre) es el protagonista más sorprendente. Un portátil con chip A18 Pro —el mismo que monta el iPhone 16 Pro—, pantalla Liquid Retina de 13 pulgadas, 8 GB de RAM unificada, conectividad Wi-Fi 6E y Bluetooth 6, y un diseño que recuerda más al iPad Air que a cualquier Mac anterior: sin notch, biseles uniformes, en cuatro colores (Silver, Blush, Citrus, Indigo). El precio de salida es 599 dólares / 699 € con 256 GB, o 699 $ / 799 € con 512 GB. En educación, desde 499 $.
El iPhone 17e llegó el 2 de marzo con chip A19, 8 GB de RAM, MagSafe integrado por fin en la gama “e”, cámara trasera de 48 megapíxeles con 2x zoom óptico, nuevo Ceramic Shield 2 y el modem C1X —hasta el doble de rápido que el C1 del 16e. Precio: 599 dólares / 699 € con 256 GB. Compatible con Apple Intelligence completa.
El iPad Air con M4 llega con el chip M4 y 12 GB de RAM (frente a los 8 GB del M3), chip N1 de conectividad (Wi-Fi 7 y Bluetooth 6) y soporte de modem C1X en los modelos celular. Precios desde 599 dólares / 649 € para el 11” Wi-Fi. Un 30% más rápido que el M3 en tareas CPU.
El Swift Developer Program 2026 es la formación más completa para convertirse en desarrollador iOS profesional: dos meses intensivos con Swift 6.2, SwiftUI con Liquid Glass y Xcode Agentic Coding, más 13 semanas y proyecto final. Lo imparte Marc Hervera, con una trayectoria que habla por sí sola. Solo 40 plazas, con financiación disponible. Comenzamos el 4 de abril. Infórmate en https://acoding.academy/sdp26.
El iPad estándar con A18 no apareció esta semana. Apple optó por no lanzarlo junto al resto de la gama. Los rumores apuntan a que llegará en los próximos meses.
El MacBook Neo es perfecto para un perfil concreto: el que todavía no da el salto. Estudiantes, personas que quieren explorar el desarrollo Apple sin comprometer mil euros o más, profesionales de otros stacks que necesitan compilar una app de vez en cuando.
El chip A18 Pro tiene 6 núcleos CPU y 5 de GPU, con un ancho de banda de memoria de 60 GB/s. En Geekbench: 3.461 puntos en single-core y 8.668 en multi-core —superando al M1— en un portátil de 599 dólares.
¿Es suficiente para Xcode? Sí, con matices. Xcode arranca, las Previews de SwiftUI funcionan, los simuladores corren y puedes publicar en el App Store. Apple Intelligence está operativa. Los límites aparecen en proyectos grandes con muchos módulos, compilaciones limpias complejas o varios simuladores en paralelo.
Las limitaciones son claras: 8 GB de RAM no ampliables, un solo puerto USB 3 con DisplayPort, sin Thunderbolt, sin ProMotion, sin pantalla XDR. Sin SD, sin HDMI.
Para qué tipo de desarrollo es ideal: proyectos iOS/macOS de tamaño pequeño o medio, aprendizaje, apps sencillas, freelance a tiempo parcial, desarrollo web frontend.
Aquí hay que ser honesto y decir algo que muchos análisis omiten: el MacBook Air M5 no tiene ventilador. Es completamente fanless. Y eso tiene implicaciones directas en el uso diario de un desarrollador.
En términos de chip, el M5 trae 10 núcleos CPU, 8 núcleos GPU (en el 13”), 153 GB/s de ancho de banda de memoria y 16 GB de RAM de base, configurable hasta 32 GB. Dos puertos Thunderbolt 4, MagSafe 3, Wi-Fi 7, batería de hasta 18 horas. El multi-core supera en un 80% al MacBook Neo en compilación paralela. Son números excelentes.
Pero sin ventilador, cuando el procesador se calienta bajo carga sostenida, el sistema empieza a limitar la velocidad de proceso —el conocido thermal throttling—. El Air es perfecto para una o dos horas de trabajo intensivo: una sesión de Xcode, una build limpia, unos simuladores abiertos. Lo maneja con soltura. Pero para un flujo de trabajo profesional de ocho o diez horas de compilaciones continuas y simuladores corriendo en paralelo todo el día, el Air M5 no es el equipo adecuado.
¿Para quién es ideal? Para el desarrollador profesional que trabaja principalmente en la oficina o en casa con un ordenador de sobremesa y lleva el Air como máquina itinerante. Para estar en una cafetería, en un tren, en una reunión. Para el freelance que trabaja en sesiones de una o dos horas. En esas condiciones, el Air M5 con 24 GB de RAM es probablemente el mejor portátil que puedes comprar por el precio. Pero si el Air va a ser tu único equipo y tu trabajo requiere sesiones largas de compilación diaria, necesitas el escalón siguiente.
El MacBook Pro 14” con M5 es el equipo que más se vende en los departamentos de desarrollo de empresas en Estados Unidos y el que copa los servicios de renting tecnológico. Y hay razones concretas.
Para empezar, tiene ventilador. Un solo ventilador, pero activo. Eso significa que puede mantener el rendimiento durante horas sin throttling. El mismo chip M5 —10 núcleos CPU, 10 núcleos GPU, 153 GB/s de ancho de banda— que en el Air empieza a ceder bajo carga sostenida, en el Pro mantiene el rendimiento estable durante jornadas completas de trabajo.
Además, usa el mismo cuerpo y la misma pantalla Liquid Retina XDR con ProMotion a 120 Hz que los modelos M5 Pro y M5 Max. Y los puertos: MagSafe 3, tres Thunderbolt 4, HDMI, lector de tarjetas SD y jack de audio.
A partir de 1.699 dólares / 1.899 € (16 GB RAM / 1 TB), el MacBook Pro M5 ofrece capacidades de pantalla y rendimiento sostenido propios de las gamas Pro y Max, a un precio que, si lo comparas con el MacBook Air M5 configurado con 24 GB de RAM (ya en torno a los 1.300 $), el salto no es tan grande como parece.
Para qué tipo de desarrollo es ideal: desarrollo iOS/macOS profesional a tiempo completo en sesiones largas, proyectos de tamaño mediano o grande, trabajo con múltiples simuladores de forma continua, desarrollo server-side Swift y cualquier stack donde el portátil sea la herramienta principal del día.
Aquí cambia la arquitectura. El M5 Pro trae hasta 18 núcleos CPU y hasta 20 núcleos GPU, con hasta 128 GB de RAM unificada y 307 GB/s de ancho de banda —el doble que el M5 base—. Y tres puertos Thunderbolt 5.
Las compilaciones limpias de proyectos grandes —30, 40, 50 módulos SPM— se completan en menos de la mitad del tiempo que en un MacBook Pro M5 base. Para quienes trabajan en proyectos monorepo o equipos donde el tiempo de build impacta en la productividad, la diferencia se convierte en euros reales.
Para qué tipo de desarrollo es ideal: equipos de desarrollo iOS/macOS de tamaño medio o grande, proyectos con muchos módulos, desarrollo de SDKs y frameworks, Swift en servidor con carga real, proyectos multilenguaje, Python y data science de tamaño mediano, Docker con varios contenedores activos.
El M5 Max con 40 núcleos GPU y hasta 128 GB de RAM a 614 GB/s introduce una arquitectura de dos chiplets (Fusion Architecture), primera vez en un portátil Apple, con Neural Accelerators en cada núcleo GPU.
Para ML y Core ML: entrenar modelos con MLX en el M5 Max es incomparablemente más rápido que en cualquier otro portátil. Para compilación pesada: proyectos con 100+ módulos Swift corren en local con tiempos de CI. Y, como veremos a continuación, antes de llegar aquí vale la pena hacerse una pregunta.
Antes de hablar de Xcode y Swift, hay una conversación que vale la pena tener. Nadie la suele levantar —ni las marcas, ni la mayor parte de medios especializados— porque nadie tiene incentivo en recordártela. Es esta: los ordenadores de sobremesa siempre rinden más, cuestan mucho menos y casi nadie se para a pensar si realmente necesita un portátil.
El Mac mini M4 Pro —disponible hoy— tiene 24 núcleos CPU y hasta 64 GB de RAM por 1.399 dólares / 1.649 €. El Mac Studio M4 Max —también disponible hoy— tiene hasta 40 núcleos GPU y hasta 128 GB de RAM por 1.999 dólares. Y ambos pueden conectarse a la pantalla que ya tienes, trabajar durante años y nunca hacer throttling.
¿Por qué rinden mejor que un portátil del mismo chip? La respuesta es física: diseño térmico. Los sobremesa tienen ventiladores más grandes, más espacio para disipar el calor y no necesitan comprometer rendimiento por el peso o el grosor del chasis. El concepto se llama thermal headroom: cuánto margen tiene el sistema antes de empezar a reducir la frecuencia de los núcleos para no quemarse. En los sobremesa, ese margen es siempre mayor.
El Mac mini M5 Pro y el Mac Studio con M5 aún no han llegado —se esperan en los próximos meses—, pero cuando lleguen seguirán esta lógica: a igualdad de chip, el sobremesa siempre ganará en rendimiento sostenido y siempre costará bastante menos que el portátil equivalente.
Y el Mac Studio M3 Ultra actual —sí, Apple vende hoy un Mac Studio con M4 Max junto a otro con M3 Ultra, en un movimiento bastante inusual— tiene 28 núcleos CPU y hasta 192 GB de RAM por 3.999 dólares. Para ponerlo en perspectiva: eso es el precio de un MacBook Pro M5 Max de 14” con 36 GB de RAM. Con el Mac Studio M3 Ultra tienes más de cinco veces más RAM y un rendimiento bruto que ningún portátil puede igualar.
Por eso la pregunta que vale la pena hacerse, antes de gastarte 3.000 o 4.000 euros en un MacBook Pro Max, es: ¿cuántos días al mes trabajo fuera de casa? Si la respuesta honesta es “casi ninguno”, un Mac mini o un Mac Studio —combinado con un MacBook Neo o un MacBook Air para los desplazamientos— puede ser la solución más inteligente, más potente y más barata. Respetamos la decisión de quien prefiere el portátil, claro que sí. Pero conviene tenerlo sobre la mesa.
Si ya eres desarrollador con experiencia y quieres dar el salto a la codificación agéntica, el Swift Agentic Engineering Program arranca el 4 de mayo: 60 horas en directo con Claude Code, Codex, Model Context Protocol y Foundation Models de Apple, para multiplicar tu productividad como desarrollador nativo. Aprende a usar la IA tanto en la nube como 100% privada para proteger tu contenido en tu empresa. Bonificable por FUNDAE. Infórmate en: https://acoding.academy/agentic.
El 26 de febrero, justo antes de la semana de lanzamientos, Apple publicó Xcode 26.3 con soporte para codificación agentiva.
Modelos de IA —con soporte inicial para Claude de Anthropic y Codex de OpenAI— pueden operar con autonomía dentro de Xcode: explorar la estructura del proyecto, leer documentación oficial actualizada, crear archivos, compilar, ejecutar tests, hacer snapshots de Previews y detectar errores, todo de forma autónoma. El protocolo es Model Context Protocol (MCP). Disponible para miembros del Apple Developer Program.
Aunque la semana ha estado dominada por el hardware, el ecosistema Swift no se ha parado. Dos publicaciones recientes que merecen la pena revisar:
El 2 de marzo, Swift.org publicó el resumen mensual: “What’s New in Swift: February 2026 Edition”. Recoge: el lanzamiento de Swift System Metrics 1.0, los nuevos paquetes GraphQL para Vapor y Hummingbird, SQLClient-Swift —acceso nativo a SQL Server desde plataformas Apple—, TuiKit para interfaces de terminal, el paquete FuzzyMatch para búsqueda difusa de alto rendimiento, la participación de Swift en el Google Summer of Code 2026 y las últimas propuestas de Swift Evolution aceptadas. Todo en swift.org.
Y el 6 de marzo, también en Swift.org, un caso de uso real: cómo el equipo de TelemetryDeck construyó su servicio de analítica respetuosa con la privacidad sobre Swift, Vapor y Kubernetes, procesando millones de eventos al día. Una de las mejores demostraciones públicas de Swift en producción a escala. Disponible en swift.org.
Esta semana el equipo de Apple Coding ha estado muy activo cubriendo los lanzamientos desde primera hora. En YouTube (youtube.com/@applecoding) puedes encontrar los dos últimos vídeos publicados. Visita el canal directamente en youtube.com/@applecoding/videos para los títulos y URLs exactas.
En Cuonda, los dos episodios más recientes de Apple Coding Daily:
El episodio del 4 de marzo analiza la revolución de arquitectura de los M5 Pro y M5 Max: chiplets, Neural Accelerators en GPU y por qué esto no es una actualización incremental. Lo tienes en Cuonda.
El episodio del 6 de marzo se centra en el MacBook Neo: si es o no tu próximo portátil, a quién le sirve de verdad y qué compromiso implica frente al MacBook Air M5. Disponible en Cuonda.
El 8 de marzo, María Soriano y Julio César Fernández han publicado en el podcast de Apple Coding un episodio especial dedicado íntegramente a los productos que Apple acaba de lanzar. Una conversación honesta sobre cómo usan cada uno de ellos estos dispositivos en su día a día, qué recomiendan para cada perfil de usuario y su lectura sobre la situación actual del ecosistema Apple.
Un episodio de esos que escuchas caminando y llegas a casa sin darte cuenta. Lo tienes en YouTube.
La semana que acaba de pasar ha sido de las que quedan en la memoria del ecosistema. Desde los 599 dólares del MacBook Neo hasta los más de 3.900 del MacBook Pro M5 Max, Apple ha redibujado el catálogo completo en 72 horas —sin bajar el listón de calidad en ningún extremo—. El Neo es un Mac real, no un experimento. El Max es un monstruo real, no marketing.
Para los desarrolladores, la conversación más interesante no es “¿cuál es mejor?” sino “¿cuál necesito yo?”. Define tu flujo de trabajo antes de definir el presupuesto. La diferencia entre el Air M5 y el MacBook Pro M5 no es solo de precio: es de ventilador, de pantalla, de sostenibilidad de la carga de trabajo. Y si trabajas en casa la mayor parte del tiempo, quizás la pregunta real es si necesitas un portátil o un sobremesa. Esos detalles importan.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Cuando escribimos esto, quedan horas para que Apple empiece su “semana grande”. Sin keynote, sin escenario, pero con un catálogo de lanzamientos que promete sacudir el mercado: un MacBook de entrada con chip de iPhone, el esperado iPhone 17e, nuevos iPad y un MacBook Air renovado. Y mientras el mundo mira hacia Cupertino, Siri sigue escondiéndose entre bambalinas. Hay mucho que contar, así que arrancamos.
El 2 de marzo arranca lo que Apple tiene preparado como su gran semana de anuncios. Los comunicados llegarán de forma escalonada hasta el 4 de marzo, cuando eventos presenciales en Nueva York, Shanghái y Londres pongan la guinda. El menú es extenso:
MacBook de entrada con chip A18 Pro: el protagonista indiscutible. En colores —amarillo, azul, rosa, plata—, con pantalla de 12,9-13 pulgadas y a un precio estimado entre los 599 y los 799 dólares.
iPhone 17e: chip A19, MagSafe por fin integrado, cámara trasera de 48 megapíxeles y precio sin cambios en los 599 dólares.
iPad Air con M4 y iPad estándar con A18 —este último con soporte para Apple Intelligence por primera vez en la gama base.
MacBook Air con M5, con mejoras de rendimiento multi-core de hasta un 20% respecto al M4.
MacBook Pro con M5 Pro y M5 Max para quien necesita lo máximo.
Una semana grande. Y la novedad más relevante para quienes desarrollamos para Apple es, sin duda, la primera de la lista.
Seamos directos: uno de los mayores frenos para empezar en el desarrollo Apple no es la curva de aprendizaje, sino el precio de la máquina de entrada. Durante años, la opción mínima recomendada ha sido el MacBook Air —estupendo portátil, pero con un precio de salida que supera los 1.100 dólares en la mayoría de mercados.
Eso está a punto de cambiar. El nuevo MacBook con A18 Pro llega con el mismo chip que el iPhone 16 Pro: CPU de 6 núcleos, GPU de 6 núcleos, proceso de 3 nanómetros de segunda generación y 8 GB de RAM garantizados. En benchmarks, el A18 Pro alcanza puntuaciones de single-core a la altura del M3 Ultra y multi-core superiores al M1 —sí, el mismo chip que inauguró la era Apple Silicon en el Mac—. En un portátil de menos de 800 dólares.
¿Es una máquina para usuarios profesionales exigentes? No, y hay que ser honesto con eso. Sin Thunderbolt —solo USB-C estándar—, pantalla más pequeña y sin ProMotion. Pero para correr Xcode, compilar proyectos reales, trabajar con simuladores y Previews, depurar y publicar en el App Store, es más que suficiente. Apple Intelligence funciona. El ecosistema completo de herramientas, también.
Junto al Mac mini —que sigue siendo la mejor opción de sobremesa por precio-prestaciones de todo el ecosistema Apple— tenemos ahora dos puertas de entrada al desarrollo nativo a precios que, por primera vez en mucho tiempo, compiten de verdad con alternativas de otras plataformas. Si tienes a alguien en tu entorno que quiera empezar a desarrollar para Apple y ha estado esperando el momento, esta semana puede ser el momento de decirle que ya no hay excusas.
La primera beta de iOS 26.4 aterrizó en manos de los desarrolladores a mediados de febrero, y la comunidad se lanzó a revisarla con la esperanza de encontrar señales de la nueva Siri. Resultado: nada. La Siri que prometía entender el contexto personal, buscar en mensajes antiguos, controlar apps de terceros con la voz... no está.
Según Bloomberg, las pruebas internas detectaron problemas serios: Siri responde demasiado lento en solicitudes complejas y ciertas consultas no se procesan correctamente. El equipo ha tenido que frenar. La nueva Siri podría llegar en iOS 26.5 —primavera— o incluso quedar para iOS 27 en otoño. No sería la primera vez que Siri se retrasa, pero la situación tiene un peso especial cuando los competidores llevan meses demostrando exactamente lo que Apple prometió.
En nuestro podcast le hemos dedicado 36 minutos a diseccionar qué ha pasado y qué significa todo esto para el futuro de Apple Intelligence. Lo tienes en YouTube y también en Cuonda, en el formato de Apple Coding Daily.
Ahora bien: que Siri no aparezca no significa que iOS 26.4 llegue de vacío. La actualización sí trae algo relevante para los desarrolladores: un nuevo modelo de fundación on-device —un LLM local completamente renovado— que mejora sustancialmente al anterior. Este modelo es el corazón de lo que Apple está construyendo: es la pieza que procesará el contexto personal del usuario, la que ejecutará comandos en las apps a través de App Intents, y la base sobre la que se apoyará la interpretación visual de interfaces, la misma que hemos visto en los papers de Ferret-UI. La arquitectura está tomando forma, ladrillo a ladrillo.
Esto tiene una implicación concreta si ya tenéis apps que usan el Foundation Models Framework: Apple ha pedido a los desarrolladores que revisen sus prompts e implementaciones con el nuevo modelo para asegurarse de que el comportamiento no varía de forma significativa. Y la razón es fundamental, no administrativa: la IA no es determinista. A diferencia de una función de código convencional, la misma entrada no produce siempre la misma salida. Un LLM calcula en cada paso el token más probable en el espacio de vectores, y esa distribución de probabilidades puede cambiar completamente de un modelo a otro según su base de entrenamiento. Un prompt que funcionaba perfectamente con el modelo anterior puede comportarse de forma distinta —a veces mejor, a veces inesperada— con el nuevo. Comprobadlo antes de que llegue a producción.
Este contexto de promesas retrasadas da aún más relevancia a un artículo que publicó Julio César Fernández estas semanas y que no deberíais perderos. Con datos empíricos —no opiniones, datos concretos sobre las limitaciones técnicas actuales de los sistemas de IA—, explica por qué la inteligencia artificial seguirá necesitando humanos cualificados detrás. Y por qué, cuanto más sepas, más valioso serás en este entorno.
Lo tenéis disponible en X, en LinkedIn y en Be Native. Una lectura especialmente recomendable para quienes tienen dudas sobre si vale la pena seguir invirtiendo en formación técnica mientras la IA avanza.
Y hablando de lo que la IA sí puede hacer ya: Apple ha tenido un febrero muy activo en su división de investigación. El 17 de febrero publicó en machinelearning.apple.com dos trabajos que merecen atención.
Ferret-UI 2 es un modelo multimodal que entiende interfaces de usuario en múltiples plataformas —iPhone, Android, iPad, web, Apple TV—, combinando percepción de alta resolución mediante escalado adaptativo con datos de entrenamiento generados con GPT-4o. Pero la sorpresa del mes ha sido Ferret-UI Lite: un agente compacto de solo 3.000 millones de parámetros diseñado para ejecutarse completamente en el dispositivo, sin nube, sin latencia de red. Puede localizar elementos en pantalla con una precisión del 91,6% en ScreenSpot-V2 y navegar de forma autónoma por interfaces. El paralelismo con el trabajo de Siri es obvio —y prometedor. Todo el detalle en machinelearning.apple.com.
El grupo de trabajo de Swift para WebAssembly publicó a finales de febrero su resumen mensual, y hay buenas noticias en varios frentes.
La más destacada: BridgeJS ha alcanzado el MVP en la versión 0.44.1 de JavaScriptKit. Este nuevo mecanismo de interoperabilidad entre Swift y JavaScript permite declarar APIs usando macros Swift y generar código de puente bidireccional de forma automática. Con el atributo @JS expones tu código Swift a JavaScript; con @JSClass, @JSFunction, @JSGetter y @JSSetter importas el ecosistema JavaScript directamente en Swift. Y puedes incluso generar los bindings desde archivos TypeScript. Type-safe, eficiente y, por fin, cómodo.
Además, WasmKit avanza en el soporte del Component Model de WebAssembly —el estándar de modularidad del ecosistema—, y ElementaryUI incorpora @FocusState, la vista Group y un FilterModifier con blur, saturación y brillo, además de mejoras de rendimiento generales. Todos los detalles en el Swift Forums.
El 16 de febrero, Jay Herron y la organización GraphQLSwift anunciaron en los Swift Forums el lanzamiento de dos nuevos paquetes: graphql-vapor y graphql-hummingbird. El objetivo: exponer una API GraphQL completa —con suscripciones WebSocket, cumplimiento de la especificación GraphQL-over-HTTP y un IDE GraphiQL integrado— con una sola llamada en tu router:
routeBuilder.graphql(schema: schema) {
// createContext()
}El framework se encarga de las codificaciones especializadas, el mapeo de errores a códigos HTTP y los protocolos de suscripción. Nada más que añadir.
En paralelo, el equipo de Vapor publicó su visión de futuro para Vapor 5: concurrencia estructurada completa (adiós para siempre a EventLoopFuture), integración con el servidor HTTP de Hummingbird, soporte de primera clase para OpenAPI, gRPC y streaming asincrónico, y observabilidad completa desde el primer día. Vapor 5 garantizará 3 años de soporte activo. El servidor en Swift sigue avanzando con paso firme.
Febrero ha sido generoso en contenido oficial para desarrolladores. Algunas cosas que vale la pena revisar antes de que llegue la temporada de actualizaciones:
Las sesiones fundamentales de SwiftUI del 10 de febrero siguen disponibles en vídeo, tanto para principiantes como para desarrolladores con experiencia.
Las sesiones “Let’s talk Liquid Glass” continúan activas durante marzo. Si todavía no has explorado las APIs glassEffect, GlassEffectContainer y glassEffectID, es el momento ideal para ponerse al día.
La nueva documentación sobre optimización del Foundation Models Framework detalla cómo analizar el consumo de tokens y mejorar los tiempos de respuesta en apps que usan el modelo on-device de 3.000 millones de parámetros de Apple.
Todo disponible en developer.apple.com.
Una noticia que nos hace especial ilusión compartir: hemos convocado el Swift Developer Program 2026, la formación de referencia para convertirse en desarrollador Apple profesional, impartido esta edición por Marc Hervera —uno de los profesionales con mayor trayectoria y experiencia del ecosistema iOS en el mundo hispanohablante—.
Si aún no conoces a Marc, ahora tienes la excusa perfecta para hacerlo: tenéis la entrevista completa en YouTube, donde Julio César habla con él sobre su carrera desde los tiempos de Objective-C hasta la era de la IA. Si prefieres el audio, está también en Cuonda dentro del podcast de Apple Coding. Una conversación que merece una escucha tranquila.
Todos los detalles del programa, en acoding.academy.
Y para terminar, queremos presentaros formalmente a Gabhel Studios (gabhel.com), el estudio de desarrollo responsable de Be Native y de muchas otras apps dentro del ecosistema Apple Coding, con más de 15 años de trayectoria en el desarrollo Apple.
Gabhel Studios ofrece desarrollo de apps iOS nativas con Swift y SwiftUI —código nativo siempre, nunca frameworks multiplataforma—; consultoría de inteligencia artificial, analizando flujos de trabajo reales e identificando herramientas de IA con impacto concreto; y modernización de apps legacy, con migraciones a Swift 6 con concurrencia estricta, adaptación a Liquid Glass y cumplimiento de la Directiva Europea de Accesibilidad.
Su filosofía se resume en cuatro palabras: “Código nativo o nada”. Más de 30 años de experiencia en proyectos reales, más de 10 especializados en consultoría de IA, y una honestidad que nos parece fundamental: si no pueden resolverlo, no cobran. Estamos muy orgullosos de poder ofreceros los servicios de un equipo así. Si tenéis un proyecto en mente, no dudéis en visitarles.
La semana que entra llega cargada. Nuevos Macs, nuevos iPhones, nuevos iPads, y con ellos nuevas puertas de entrada a un ecosistema que sigue siendo, a nuestro juicio, el mejor lugar donde un desarrollador puede trabajar. Swift no para: está en el servidor, está en el navegador, está en los dispositivos. Y nosotros estamos aquí para contarlo todo.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Llevábamos unas semanas sin pasar por aquí. La vida, los viajes, los compromisos... a veces conspiran para que la newsletter tenga que esperar. Pero si hay algo bueno de tomarse un respiro es que, al volver, tienes tanto que contar que no sabes ni por dónde empezar. Y esta vez, créenos, ha habido de todo: Apple abrazando la IA agéntica en Xcode, una guerra de modelos que se desató el mismo día a la misma hora, una aventura madrileña con evangelistas de Apple que nos dejó con la boca abierta, y un drama con renombramientos, estafadores crypto y langostas. Sí, langostas. Vamos allá.
El 3 de febrero, Apple dejó caer una de esas bombas que redefinen cómo trabajamos los desarrolladores. Xcode 26.3 llega con coding agéntico integrado de serie. Y no estamos hablando de un autocompletado glorificado: estamos hablando de agentes de IA completos, capaces de buscar documentación, explorar la estructura de archivos de tu proyecto, modificar configuraciones, verificar visualmente el resultado con Xcode Previews, iterar builds, solucionar errores y operar de forma autónoma.
¿Lo más interesante? Apple no ha apostado por un único proveedor. Xcode 26.3 soporta tanto a Claude de Anthropic como a Codex de OpenAI como motores de IA. Y por si fuera poco, integra MCP (Model Context Protocol), el estándar abierto que permite conectar cualquier agente o herramienta de terceros compatible. Es decir, Apple ha construido una autopista y ha invitado a todos a circular por ella.
Como dijo Susan Prescott, VP de Worldwide Developer Relations: “El coding agéntico potencia la productividad y la creatividad”. Y lo cierto es que, tras probarlo, cuesta imaginar volver atrás. Los agentes no solo escriben código: entienden tu proyecto, navegan por él, y proponen soluciones contextuales. Es un antes y un después.
Si el anuncio de Xcode 26.3 sacudió el mundo Apple, lo que vino dos días después fue directamente un terremoto en el mundo de la IA. El 5 de febrero, tanto Anthropic como OpenAI lanzaron sus nuevos modelos estrella. El mismo día. A la misma hora. Bueno, casi: Anthropic adelantó su lanzamiento quince minutos. Lo justo para poder decir que fueron primeros.
Claude Opus 4.6 (sí, el modelo que impulsa esta misma newsletter) llega con una ventana de contexto de 1 millón de tokens en beta —cinco veces más que su predecesor—, un sistema de Adaptive Thinking que decide cuánto razonar según la complejidad de la tarea, y la función estrella: Agent Teams, que permite que múltiples instancias de Claude trabajen en paralelo coordinándose entre sí. Para demostrar su potencia, Anthropic construyó un compilador de C completo usando un equipo de Claudes trabajando en paralelo. Sin intervención humana. Ahí queda eso.
En cuanto a rendimiento, Opus 4.6 marca un 72,7% en OSWorld (frente al 66,3% de Opus 4.5), un 65,4% en Terminal-Bench 2.0 y un 80,8% en SWE-bench Verified. Pero donde realmente brilla es en la mejora de búsqueda web (+16 puntos) y operaciones de terminal (+5,6 puntos). Y todo esto manteniendo el mismo precio: 5/25 dólares por millón de tokens de entrada/salida.
Por su parte, GPT-5.3-Codex llega como modelo unificado: OpenAI ha dejado de separar los modelos de código de los generalistas. Es un 25% más rápido que su predecesor, soporta 400K tokens de contexto y 128K de salida, y tiene un dato que da vértigo: es el primer modelo de OpenAI que ayudó a crear su propia versión. Literalmente, versiones tempranas del modelo depuraron su propio pipeline de entrenamiento. Sam Altman además señaló que es el primer modelo que alcanza la clasificación “alta” en ciberseguridad dentro de su framework de preparación, lo que implica tanto potencial como riesgo.
Ponte al día con las últimas herramientas de desarrollo y arquitecturas
Xcode agéntico, Foundation Models, Liquid Glass... el mundo del desarrollo Apple no para. En Be Native tienes todo lo que necesitas para estar al día.
Permitidnos ahora un momento de orgullo y agradecimiento. Porque estas últimas semanas hemos tenido el privilegio de vivir algo muy especial.
El pasado 2 de febrero, Julio César Fernández, Arturo Rivas, Jon Ander Orcera y Alejandro Mohamad, en representación de Apple Coding y AC Academy, asistieron a una charla sobre Liquid Glass en el Impact Hub de Madrid. La sesión estaba enmarcada dentro del programa “Meet with Apple”, la serie mundial de actividades de diseño que Apple está organizando hasta marzo de 2026 para ayudar a los desarrolladores a adoptar su nuevo lenguaje de diseño.
La charla fue impartida por Aniket Roy, Design Evangelist de Apple, que desgranó las claves del sistema de diseño Liquid Glass —el mayor cambio visual de las plataformas Apple desde iOS 7— y cómo los desarrolladores pueden integrar sus principios en sus aplicaciones. Una sesión inspiradora que dejó claro que Apple sigue apostando por el diseño como piedra angular de la experiencia de usuario. Las APIs de SwiftUI como glassEffect, GlassEffectContainer y glassEffectID permiten que las apps que usan componentes estándar obtengan soporte de Liquid Glass con un esfuerzo mínimo, pero el diablo está en los detalles y en los casos personalizados, que es precisamente lo que estas sesiones presenciales ayudan a resolver.
Pero la cosa no quedó ahí. Julio tuvo además la oportunidad de participar en un workshop técnico de dos días sobre Foundation Model Framework, impartido por Alberto Ricci, Technology Evangelist de Apple desde 2008 —una auténtica leyenda del evangelismo técnico—. Con un enfoque completamente práctico, Alberto guió a más de 20 desarrolladores Apple a través de un caso real de programación que fue mucho más allá de lo esperado: no solo el Foundation Model Framework en sí, sino también transcripción en tiempo real, generación de imágenes, escaneado con reconocimiento de texto y muchas más capacidades de inteligencia artificial on-device. Dos días intensos donde quedó demostrado que la IA de Apple no es un juguete: es una herramienta seria, potente y lista para producción.
Desde aquí queremos dar las gracias de corazón a Annikki Laine, Partnership Manager de Worldwide Developer Relations para Northern Europe en Apple, que desde Helsinki hace posible que estas actividades lleguen a desarrolladores de toda Europa, y a todo el equipo de Apple Developer Relations por abrirnos las puertas. Momentos así nos recuerdan por qué amamos esta comunidad.
Y hablando de comunidad, imposible no hablar del fenómeno que ha sacudido el mundo tech estas semanas: OpenClaw. Aunque para entender la historia completa hay que rebobinar un poco.
Todo empezó con Clawdbot, un “proyecto de fin de semana” de Peter Steinberger —sí, el fundador de PSPDFKit, uno de los nombres más reconocidos del ecosistema iOS que vendió su empresa tras una inversión de 116 millones de dólares de Insight Partners—. La idea era simple y ambiciosa a partes iguales: un agente de IA autónomo, open source, que se ejecuta en tu máquina y se conecta a tus apps del día a día. WhatsApp, Slack, Discord, iMessage, Telegram, Signal, tu email, tu calendario, tu terminal... Clawdbot podía gestionarlo todo. En una entrevista con The Pragmatic Engineer, Steinberger soltó la frase que se hizo viral: “Publico código que no leo”. Solo en enero de 2026 hizo más de 6.600 commits. Él solo. Desde su casa.
El nombre “Clawd” era un guiño evidente a Claude de Anthropic. Y claro, Anthropic no tardó en llamar a la puerta con una reclamación de marca registrada. Steinberger preguntó si podía simplemente quitar la “d” y dejarlo en “Clawbot”. La respuesta: “No permitido”. Así que lo renombró a Moltbot. Y aquí viene la parte buena: en los diez segundos que pasaron entre soltar el nombre viejo en GitHub y Twitter y registrar el nuevo, estafadores de criptomonedas se apoderaron de ambas cuentas antiguas. El caos fue absoluto.
Tras 48 horas de confusión bajo el nombre Moltbot (que “nunca terminó de sonar bien”, admitió Steinberger), nació definitivamente OpenClaw, con una langosta como mascota y la determinación de que este sería el nombre definitivo.
Los números son de vértigo: de 9.000 a 157.000 estrellas en GitHub en 60 días. 34.168 estrellas en solo 48 horas. Es el repositorio de crecimiento más rápido de la historia de la plataforma, 18 veces más rápido que Kubernetes. De él surgió incluso Moltbook, una red social para bots de IA donde los agentes de los usuarios publicaban contenido, comentaban y votaban entre ellos. Llegó a tener 1,5 millones de agentes registrados. Andrej Karpathy (ex-director de IA en Tesla) lo calificó como “lo más cercano a la ciencia ficción que he visto en mucho tiempo”.
Las capacidades son reales e impresionantes: agentes que te preparan briefings matutinos personalizados, gestión de email y calendario por mensaje, scaffolding de proyectos completos, revisión de pull requests desde el móvil, monitorización de grupos de WhatsApp con reconocimiento facial... La lista de lo que la comunidad está construyendo con OpenClaw es interminable, con cientos de skills en su marketplace ClawHub.
Pero —y es un pero muy importante— nosotros lo estamos usando y sabemos de primera mano que hay que tener muchísimo cuidado. Se ha descubierto una vulnerabilidad crítica (CVE-2026-25253, puntuación CVSS de 8.8) que permite ejecución remota de código con un solo clic. Investigadores de seguridad han encontrado 341 skills maliciosos en ClawHub —335 de ellos de una misma campaña—. Snyk analizó casi 4.000 skills y encontró que el 7,1% contenía fallos críticos que exponían credenciales. Los ataques de prompt injection pueden secuestrar tu agente a través de algo tan inocente como un documento de Google. Y no hay sandboxing por defecto.
OpenClaw es una herramienta increíblemente potente. Pero si no eres alguien con experiencia técnica sólida y no entiendes los riesgos que conlleva dar a un agente de IA acceso a tu vida digital, puede convertirse en una pesadilla de seguridad. The Register lo calificó de “incendio en un contenedor de basura” en materia de seguridad. XDA publicó un artículo titulado “Por favor, dejad de usar OpenClaw”. Usadlo, pero con mucho, mucho respeto. Y si lo hacéis, revisad cada skill que instaléis, activad el sandboxing, y no le deis permisos que no entendáis.
Comienza a aprender tu nueva carrera de programación potenciada con IA
El desarrollo de software ha cambiado para siempre. En Be Native te preparamos para dominar las herramientas que están redefiniendo la profesión.
Mientras el mundo de la IA ardía, Swift seguía avanzando con paso firme en múltiples frentes.
El 26 de enero, el proyecto Swift anunció oficialmente el Windows Workgroup, un grupo de trabajo dedicado a garantizar el soporte continuo de Swift en Windows. El objetivo: mejorar la distribución oficial, adaptar paquetes core como Foundation y Dispatch a las convenciones de Windows, y establecer buenas prácticas para conectar Swift con la API nativa del sistema operativo de Microsoft. Swift va muy en serio con lo de ser multiplataforma.
Swift 6.3 sigue su camino hacia una release en primavera de 2026, con mejoras importantes en Embedded Swift: impresión de punto flotante, el atributo @c (SE-0495) para funciones compatibles con C, depuración mejorada en LLDB, análisis de core dumps, y los atributos @section, @used y @export. Además, el Android Workgroup avanza con builds diarios, y hay soporte en preview para FreeBSD 14.3+. El lenguaje sigue expandiéndose a territorios que hace pocos años habrían parecido ciencia ficción.
Varias propuestas de Swift Evolution están en revisión activa:
SE-0506: Advanced Observation Tracking, que mejora los tipos @Observable con un control más granular sobre la detección de cambios en propiedades. Muy útil para infraestructura de middleware y sistemas de widgets.
SE-0507: Borrow and Mutate Accessors, que permite acceso directo a propiedades sin el overhead de copia. Un paso importante para el rendimiento.
SE-0504: Task Cancellation Shields, que introduce un mecanismo para “proteger” cierto código de limpieza de la cancelación de tareas. Autoría de Konrad Malawski.
Un post imperdible de Doug Gregor en swift.org explica cómo hacer librerías C más ergonómicas en Swift usando API notes: archivos YAML que se superponen sobre las cabeceras C para obtener enums nativos, gestión automática de memoria con SWIFT_SHARED_REFERENCE, firmas idiomáticas con SWIFT_NAME y seguridad de tipos con OptionSet. Todo sin tocar una línea del código C original. Incluye un script Swift para generar las API notes automáticamente. Brillante.
El Foundation Models Framework de Apple sigue ganando tracción entre los desarrolladores. Hablamos de un modelo de 3.000 millones de parámetros ejecutándose completamente en el dispositivo: sin enviar datos a la nube, sin costes adicionales, funcionando incluso offline. Con tan solo tres líneas de código Swift puedes acceder a capacidades de resumen, extracción de entidades, generación de texto creativo, diálogo corto y mucho más. Apple ha publicado nuevos tutoriales sobre prompting de Foundation Models y un code-along oficial que merece mucho la pena.
El Swift Student Challenge 2026 tiene las inscripciones abiertas del 6 al 28 de febrero. Los Distinguished Winners serán invitados a Cupertino este verano.
El 10 de febrero, Apple organiza desde Cupertino un día completo de sesiones fundacionales de SwiftUI con livestream.
Studioworks comparte su caso de éxito construyendo aplicaciones web completas en Swift con Hummingbird 2, Soto y Elementary, logrando tiempos de carga por debajo de 100ms.
Nuevos paquetes destacados: Cadova (herramienta de CAD 3D programable), Feather Database (capa de base de datos agnóstica con concurrencia Swift), y MailFoundation (port de librerías de correo de .NET).
Han sido unas semanas de vértigo. Apple abrazando la IA agéntica en Xcode, dos gigantes lanzando modelos el mismo día, una langosta sembrando el caos en GitHub, y nosotros teniendo el privilegio de aprender de primera mano con los evangelistas de Apple en Madrid. Si algo queda claro es que 2026 no va a dar tregua. Y sinceramente, no querríamos que la diera.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y Good Apple Coding.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Diciembre toca a su fin y con él se cierra un 2025 que, sin exagerar, ha sido uno de los años más transformadores para el ecosistema Apple y el desarrollo en Swift. Un año donde Apple decidió que los números de versión aburrían y que mejor nos sincronizábamos todos con el calendario; donde el diseño de nuestras apps se volvió líquido —literalmente—; y donde la inteligencia artificial pasó de ser una promesa a convertirse en nuestro compañero de código diario.
Antes de que os lancéis a las uvas, os invitamos a escuchar el podcast especial de fin de año en Apple Coding, donde repasamos todo esto y más con el detalle y el cariño que se merece. Pero si preferís la versión escrita, poneos cómodos: vamos a recorrer este 2025 mes a mes.
El año comenzó con el ecosistema Swift asimilando las novedades de Swift 6, lanzado en septiembre de 2024. La adopción del nuevo modelo de concurrencia estricta generaba debates acalorados en los foros, mientras los desarrolladores descubrían que migrar sus proyectos no era tan trivial como esperaban. Los warnings de Sendable se convirtieron en el pan de cada día.
Pero febrero trajo la primera gran bomba del año: Anthropic lanzó Claude Code el 24 de febrero, junto con Claude 3.7 Sonnet. Por primera vez, teníamos un agente de IA que vivía directamente en nuestra terminal, entendía nuestro código base y podía ejecutar tareas complejas mediante comandos en lenguaje natural. No era solo autocompletado glorificado: era un compañero que podía hacer commits, gestionar ramas de Git y refactorizar código mientras tomabas café.
Mientras tanto, Apple preparaba silenciosamente la expansión de Apple Intelligence a más idiomas y regiones, anunciando que en abril llegaría a nuevos mercados.
Marzo fue un mes de consolidación. Swift 6.1 vio la luz junto con Xcode 16.3, trayendo mejoras incrementales pero necesarias en el sistema de concurrencia y correcciones de bugs que la comunidad llevaba meses reportando.
El 31 de marzo, Apple Intelligence por fin llegó a la Unión Europea en iPhones y iPads, y también se expandió a Apple Vision Pro en inglés estadounidense. Los europeos por fin podíamos probar las herramientas de escritura, los resúmenes de notificaciones y las funciones de Siri mejoradas que nuestros colegas americanos llevaban disfrutando desde el año anterior.
También se formalizó el Testing Workgroup, un grupo dedicado a mejorar el estado del testing en Swift. Su primera reunión oficial fue el 10 de marzo, sentando las bases para las mejoras en Swift Testing que veríamos más adelante.
Y Apple anunció oficialmente que la WWDC 2025 tendría lugar del 9 al 13 de junio, generando las primeras especulaciones sobre iOS 19 —aunque el número acabaría siendo muy diferente—.
Abril trajo cambios importantes para los desarrolladores: a partir de ese mes, todas las apps subidas a App Store Connect debían compilarse con los SDKs de iOS 18, iPadOS 18, tvOS 18, visionOS 2 o watchOS 11. Adiós a seguir compilando con versiones antiguas; Apple empujaba a todos hacia adelante.
En mayo, OpenAI lanzó Codex en research preview, su agente de ingeniería de software basado en la nube. A diferencia de Claude Code, Codex funcionaba de forma asíncrona: le asignabas tareas y él trabajaba en paralelo, permitiendo lanzar múltiples agentes simultáneamente para escribir features, corregir bugs y proponer pull requests. Estaba potenciado por codex-1, una versión de o3 optimizada específicamente para tareas de programación.
El 3 de junio, Codex llegó a los usuarios de ChatGPT Plus, democratizando el acceso a agentes de código más allá de las APIs para desarrolladores.
También en mayo, GitHub anunció su coding agent en Microsoft Build, integrando capacidades agénticas directamente en GitHub y VS Code. El panorama de los asistentes de código se estaba transformando a velocidad de vértigo.
Y llegó junio. Y la WWDC. Y nada volvió a ser igual.
“Sleek peek” fue el eslogan de la WWDC 2025, celebrada del 9 al 13 de junio con formato híbrido: evento presencial en Apple Park y sesiones online para el resto del mundo. Pero nadie estaba preparado para lo que Apple tenía guardado.
La primera sorpresa llegó con los números de versión: Apple abandonó el sistema incremental y pasó a usar el año como número de versión. Así que no hubo iOS 19: en su lugar, llegó iOS 26. Y macOS 26. Y watchOS 26. Y visionOS 26. Todos sincronizados con el calendario. Un cambio que generó debates intensos pero que, hay que admitirlo, tiene su lógica.
Pero el verdadero protagonista fue Liquid Glass, el nuevo sistema de diseño que redefinía la interfaz de todos los sistemas operativos de Apple. Translucidez, profundidad, elementos que fluyen y se adaptan. La belleza del asunto para los desarrolladores de SwiftUI: simplemente recompilando con Xcode 26, las apps adoptaban automáticamente el nuevo aspecto. Para quienes querían más control, llegaron nuevas APIs como glassEffect(_:in:isEnabled:).
Apple dio un año de gracia para que las apps pudieran seguir usando el diseño tradicional si lo necesitaban, pero el mensaje estaba claro: el futuro es líquido.
Swift 6.2 se anunció en la WWDC, trayendo novedades suculentas:
Soporte para WebAssembly (Wasm): por fin podíamos compilar Swift para el navegador y otros entornos Wasm con soporte oficial.
El nuevo paquete Subprocess: una API moderna y orientada a concurrencia para lanzar y gestionar procesos externos.
Inline Arrays: arrays de tamaño fijo con optimizaciones en tiempo de compilación.
Aislamiento al main actor por defecto: una opción que reduce dramáticamente el boilerplate en código concurrente.
Extensión oficial de Swift para VS Code: verificada y distribuida por Swift.org, con indexación en segundo plano y debugging integrado con LLDB.
SwiftUI recibió una actualización masiva:
WebView nativo: por fin podíamos cargar y mostrar webs directamente en SwiftUI sin depender de UIKit.
TextEditor con texto enriquecido: edición de rich text nativa con controles personalizables.
Charts 3D: la nueva API Chart3D para gráficos tridimensionales interactivos.
Integración profunda con RealityKit: nuevos componentes que mezclan SwiftUI y 3D de forma natural.
Mejoras para iPadOS: barra de menú con swipe hacia abajo y ventanas redimensionables de forma más fluida.
Una de las novedades más significativas fue el Foundation Models Framework, que permite a los desarrolladores acceder directamente al modelo fundacional on-device de Apple Intelligence. Inferencia gratuita, privada, offline. Un movimiento que democratiza el acceso a la IA sin depender de APIs externas ni comprometer la privacidad del usuario.
El verano fue de consolidación. Claude Code creció 10x en usuarios desde su lanzamiento más amplio en mayo, demostrando que los desarrolladores estaban hambrientos de herramientas agénticas que realmente funcionaran.
La comunidad empezó a explorar las posibilidades del Foundation Models Framework, aparecieron los primeros tutoriales, y los foros se llenaron de discusiones sobre cómo aprovechar Liquid Glass sin romper la experiencia de usuario.
El Testing Workgroup continuó su trabajo, preparando las mejoras de output para Swift Testing que llegarían a través del programa GSoC (Google Summer of Code), con un nuevo sistema de reportes jerárquicos mucho más legible.
Septiembre es siempre el mes grande para Apple, y este año no decepcionó.
El 9 de septiembre, en el evento “Awe Dropping” celebrado en Apple Park, Apple presentó su nueva línea de iPhone:
iPhone 17 (799$): con pantalla mejorada con ProMotion y chip A19.
iPhone 17 Pro (1.099$): salto de precio pero con 256GB de base y el potente A19 Pro.
iPhone 17 Pro Max (1.199$): el buque insignia con la mejor cámara y batería.
iPhone Air (999$): la gran sorpresa. Con solo 5.6mm de grosor, el iPhone más fino jamás creado. Cuerpo de titanio, diseño que recuerda al mítico iPod nano, y un mensaje claro de que Apple sabe hacer dispositivos delgados cuando quiere.
El iPhone Air no se llama “iPhone 17 Air” —simplemente iPhone Air—, lo que sugiere que podría convertirse en una línea permanente.
El 15 de septiembre, coincidiendo con la disponibilidad de los nuevos iPhone, iOS 26 llegó al público general. Liquid Glass transformó millones de dispositivos de la noche a la mañana.
El mismo día, Swift 6.2 se publicó oficialmente, trayendo todas las mejoras anunciadas en la WWDC a producción.
Anthropic lanzó la versión 2.0 de Claude Code en septiembre, con:
Extensión nativa para VS Code: integración directa sin salir del editor.
Sistema de checkpoints: guardado automático del estado del código antes de cada cambio, con la posibilidad de hacer rollback instantáneo con Esc-Esc o /rewind.
Potenciado por Sonnet 4.5: capacidad para manejar tareas de desarrollo más largas y complejas.
El framework anunciado en junio se hizo disponible con iOS 26, permitiendo a los desarrolladores crear experiencias inteligentes on-device sin coste de inferencia.
Octubre trajo actualizaciones importantes en hardware y software.
El 15 de octubre, Apple anunció una actualización significativa de Vision Pro con el nuevo chip M5:
10% más de píxeles renderizados en las pantallas micro-OLED.
Hasta 120Hz de refresco para una experiencia más suave.
Neural Engine 16 núcleos: funciones de IA hasta 50% más rápidas.
Batería mejorada: 2.5 horas de uso general, 3 horas de vídeo.
Dual Knit Band: nueva banda que distribuye mejor el peso y reduce la fatiga.
El precio se mantuvo en 3.499$, y las ventas comenzaron el 22 de octubre.
El MacBook Pro de 14 pulgadas de entrada recibió el chip M5, aunque Apple no actualizó los modelos Pro/Max ni el Mac mini este año —eso queda para 2026—.
El 6 de octubre, OpenAI anunció la disponibilidad general de Codex, junto con integración con Slack. También llegó GPT-5-Codex, una versión de GPT-5 optimizada específicamente para tareas agénticas de ingeniería de software.
El 20 de octubre, Anthropic lanzó Claude Code para web, permitiendo gestionar múltiples agentes de código desde el navegador. Disponible para suscriptores Pro (20$/mes) y Max (100$/200$/mes), representaba la evolución natural de la herramienta de terminal hacia un entorno más visual y accesible.
Los últimos meses del año fueron de consolidación y preparación para 2026.
GitHub Copilot siguió evolucionando: en noviembre llegaron los controles de políticas para agent mode, y en diciembre se lanzaron los Agent Skills, que permiten enseñar a Copilot a realizar tareas especializadas de forma repetible.
Swift continuó su expansión multiplataforma: el trabajo en Android avanza con builds diarios y demos end-to-end, Windows madura con mejor soporte de VS Code, y FreeBSD 14.3 recibió un preview de soporte oficial.
La comunidad Swift digirió todas las novedades del año, Liquid Glass se convirtió en la nueva normalidad, y los agentes de IA —Codex, Claude Code, Copilot— se integraron en el flujo de trabajo de desarrolladores de todo el mundo.
OpenAI cerró el año con GPT-5.2-Codex, presumiendo de ser el modelo de codificación más avanzado, con mejoras en trabajos de larga duración, refactorizaciones masivas y capacidades de ciberseguridad.
Qué año, ¿verdad? De Swift 6 luchando por la adopción a Swift 6.2 con WebAssembly. De iOS 18 a iOS 26 sin pestañear. De herramientas de autocompletado a agentes autónomos que programan mientras dormimos. El desarrollo ha cambiado para siempre y ahora más que nunca se pide algo claro: especialización. Por eso hemos re-definido nuestra formación estrella Swift Mastery Program, para dar lo que se necesita: conocimiento y uso de herramientas de IA. No hay otra combinación para garantizar tu futuro.
El desarrollo Apple en 2025 ha sido una montaña rusa de innovación: Liquid Glass redefinió cómo lucen nuestras apps, Foundation Models democratizó la IA on-device, y los agentes de código —Claude Code, Codex, Copilot— transformaron para siempre cómo escribimos software.
No olvidéis escuchar el podcast especial de fin de año en Apple Coding, donde profundizamos en todo esto con más detalle y debate.
¿Qué nos deparará 2026? Rumores de Apple Glasses, un Mac mini con M5, el Siri mejorado que Apple prometió y no entregó este año... Las expectativas son altas, pero si algo hemos aprendido en 2025, es que Apple siempre tiene alguna sorpresa guardada.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos en 2026 y hasta entonces: feliz año nuevo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Cerramos 2025 con una semana que pasará a la historia. Swift cumple una década como proyecto de código abierto, Apple publica investigación que convierte fotos en mundos 3D en menos de un segundo, los videojuegos reciben un tratamiento de primera clase con una jornada completa de formación desde Cupertino, y Japón se une al club de países donde el iPhone permite tiendas de apps alternativas. Una semana intensa, de esas que te recuerdan por qué seguimos aquí.
El 19 de diciembre se publicó el tradicional recap mensual de Swift, pero esta vez venía cargado de nostalgia. Hace exactamente diez años, Apple anunciaba que Swift se convertía en software de código abierto. Lo que comenzó como un experimento ha crecido hasta convertirse en un ecosistema de más de 70 repositorios con cientos de contribuyentes semanales.
El recap destaca los hitos del año: Swift 6.2 con su concurrencia más accesible, soporte para WebAssembly, interoperabilidad profunda con C++, y las mejoras en seguridad de memoria que están redefiniendo lo que significa escribir código seguro.
Pero quizá lo más llamativo es la expansión a nuevas plataformas. Swift ya no es solo el lenguaje de Apple: corre en Android, Windows, FreeBSD, sistemas embebidos, y hasta en un Pebble Time Round de hace diez años. El proyecto ha madurado hasta el punto de que Amazon ha anunciado soporte integrado en Amazon Linux y adopción oficial del AWS Lambda Runtime.
En el frente de Swift Evolution, tres propuestas merecen atención:
SE-0497: Control de visibilidad de definiciones de funciones (completada)
SE-0493: Permite llamadas async en cuerpos defer (completada)
SE-0501: Reportes de cobertura HTML para Swift Package Manager (en revisión)
Y hablando de expansión, el 18 de diciembre se publicó Exploring the Swift SDK for Android, donde se anuncian los nuevos previews de Swift 6.3 con compilaciones diarias del SDK para Android. El SDK ahora soporta múltiples niveles de API de Android usando el familiar atributo @available y verificaciones #available, exactamente igual que en plataformas Apple. Apps como Spark, flowkey, MediQuo y Naturitas ya funcionan en producción con millones de descargas.
Si hay algo que ha incendiado las redes esta semana, es SHARP. El 17 de diciembre, Apple publicó investigación que parece magia: un modelo que reconstruye escenas 3D fotorrealistas a partir de una única fotografía en menos de un segundo.
SHARP (Sharp Monocular View Synthesis) utiliza Gaussian Splatting —millones de pequeños bloques de color y luz posicionados en el espacio— para recrear la escena. A diferencia de métodos anteriores que requerían docenas o cientos de imágenes desde diferentes ángulos, SHARP lo logra en un único paso de red neuronal.
Los números son impresionantes:
Tiempo de síntesis: 3 órdenes de magnitud más rápido que modelos anteriores
Renderizado: más de 100 FPS en GPU estándar
LPIPS: mejora del 25-34%
DISTS: mejora del 21-43%
La comunidad no ha tardado en experimentar. Un usuario compartió:
“Acabo de ejecutar SHARP localmente y vi mis fotos convertirse en Gaussian Splats en segundos, luego entré en ellas con Vision Pro”
El modelo tiene sus limitaciones —solo puede reconstruir vistas cercanas al punto original, no puede “inventar” lo que no ve— pero las implicaciones para Vision Pro y experiencias inmersivas son enormes. Y lo mejor: Apple lo ha publicado como código abierto en GitHub.
Pero SHARP no viene solo. El 16 de diciembre se presentó UniGen-1.5, un modelo multimodal que hace algo que hasta ahora requería tres modelos diferentes: entender, generar y editar imágenes. Un único modelo para todo.
La innovación clave es Edit Instruction Alignment, un nuevo paso de post-entrenamiento que alinea las instrucciones de edición con la semántica de la imagen objetivo. En benchmarks, UniGen-1.5 alcanza 0.89 en GenEval y 86.83 en DPG-Bench, superando a modelos recientes como BAGEL y BLIP3o. En edición de imágenes, su puntuación de 4.31 en ImgEdit es comparable a modelos propietarios como GPT-Image-1.
Y no olvidemos BED-LLM (19 dic), que propone usar diseño experimental bayesiano para que los LLMs recopilen información de forma más inteligente, y DarkDiff (16 dic), que aplica modelos de difusión para mejorar la fotografía en condiciones de luz extremadamente baja. Apple no solo está investigando: está definiendo el futuro.
Si 2025 te pilló sin tiempo para formarte, 2026 puede ser tu año. El Swift Mastery Program 2026 ya acepta inscripciones: una formación intensiva donde no solo aprenderás las herramientas, sino que entenderás el porqué detrás de cada decisión.
En un mundo donde los agentes de IA generan código con facilidad, quien entiende los fundamentos siempre estará un paso por delante. El SMP no es un curso más: es el programa que te convertirá en el desarrollador que las empresas necesitan, capaz de supervisar, corregir y dirigir el código que generan las máquinas.
Si desarrollas videojuegos —o alguna vez lo has considerado—, esta semana ha sido un festín. Apple ha publicado Press Start: Game development on Apple platforms, una jornada completa de formación retransmitida desde el Developer Center de Cupertino.
La sesión principal, disponible en Apple Developer Videos, incluye charlas sobre:
Traza la ruta de tu juego hacia las plataformas Apple (18:26)
Sube de nivel con las tecnologías de juegos de Apple (19:17)
Trae tus juegos de PC y consola a Mac (19:53)
Diseña grandes interfaces para juegos portátiles (19:59)
Explora potencia, rendimiento y escalabilidad en iPhone/iPad (15:43)
Transforma tu juego con Apple Vision Pro (27:33)
Además, hay un caso de estudio fascinante: Descubre cómo DREDGE fue reimaginado para las plataformas Apple con Black Salt Games, donde cuentan cómo adaptaron su éxito indie —ganador del App Store Award 2025— a los dispositivos Apple.
Pero el contenido no es lo único nuevo. La página What’s New de Games revela las novedades técnicas:
Metal 4 llega con una API optimizada para Apple Silicon, menor overhead en codificación de comandos, y algo que cambia las reglas: soporte nativo para Machine Learning con tensores directamente en el lenguaje de shaders. Ahora puedes ejecutar redes neuronales grandes o hacer inferencia inline en tus shaders.
Game Porting Toolkit 3 amplía el conjunto de instrucciones soportadas, mejora los sparse resources, añade soporte para MetalFX (upscaling, denoising, frame interpolation), y permite debugging remoto desde Visual Studio en Mac.
El nuevo GameSave Framework sincroniza automáticamente los datos de guardado entre iPhone, iPad, Mac y Apple Vision Pro. Tus jugadores podrán continuar la partida donde la dejaron, en cualquier dispositivo.
Y la estrella: Apple Games app, una nueva aplicación unificada que viene preinstalada y sirve como destino único para descubrir, lanzar y jugar. Los juegos aparecen automáticamente, con integración de Game Center e In-App Events.
Para los que trabajan con realidad virtual, hay soporte para el PlayStation VR2 Sense controller en visionOS con 6 grados de libertad y vibración. Y si desarrollas para pantallas táctiles, la nueva On-screen controls API facilita crear controles táctiles nativos para iPhone e iPad.
Adaptar tu app al nuevo lenguaje de diseño de Apple no tiene por qué ser un salto al vacío. Esta semana se han publicado varios showcases donde desarrolladores reales cuentan cómo lo han hecho:
Showcase: Apps integrating Liquid Glass (116:17) — Lowe’s, American Airlines y Sky Guide comparten sus experiencias, seguidos de una charla con líderes del equipo de diseño de Apple.
Liquid Glass showcase: CNN (9:24)
Liquid Glass showcase: Slack (12:28)
Liquid Glass showcase: Tide Guide (10:52)
Liquid Glass showcase: LTK (9:33)
Y si prefieres aprender haciendo, el Code-along: Start building with Swift and SwiftUI (96:09) te guía paso a paso para construir una interfaz iOS completa usando SwiftUI y SwiftData.
El 17 de diciembre, Apple anunció cambios significativos en iOS para Japón. Para cumplir con la Ley de Competencia de Software Móvil (MSCA), a partir de iOS 26.2 los desarrolladores en Japón pueden:
Distribuir apps en marketplaces alternativos
Operar sus propios marketplaces
Procesar pagos de bienes y servicios digitales fuera de Apple In-App Purchase
Japón se convierte en el país número 29 con acceso a tiendas de apps alternativas en iPhone. Los usuarios también pueden configurar asistentes de voz de terceros para activarse con el botón lateral, y hay nuevas pantallas de elección para navegador y motor de búsqueda predeterminados.
Epic Games, sin embargo, ha confirmado que Fortnite no volverá a iOS en Japón porque considera que las comisiones siguen siendo demasiado altas. La batalla continúa.
En otras novedades corporativas, Apple ha lanzado el Mini Apps Partner Program, dirigido a desarrolladores que alojan mini apps HTML5 dentro de aplicaciones nativas. El programa ofrece una comisión del 85% (frente al 70% estándar) en compras in-app cualificadas, siempre que las mini apps cumplan con los requisitos técnicos y de privacidad.
Y para cerrar con algo bonito: CapWords ha ganado el Apple Design Award 2025 en la categoría Delight and Fun. Esta app de aprendizaje de idiomas usa IA para convertir fotos de objetos cotidianos en pegatinas animadas que enseñan vocabulario. Desarrollada por un equipo de tres personas en Beijing, nació de una conversación entre el fundador Ace Lee y su hija de 3 años. A veces las mejores ideas vienen de las preguntas más simples.
La comunidad Swift no descansa ni en Navidad:
Natalia Panferova en Nil Coalescing nos regala Animating SF Symbols in SwiftUI (18 dic), un tutorial sobre cómo añadir animaciones y transiciones a los iconos de SF Symbols sin necesidad de lógica de animación personalizada.
Antoine van der Lee en SwiftLee reflexiona sobre 9 months of a Swift Concurrency Course (15 dic), analizando lo que ha aprendido tras lanzar su curso sobre Swift Concurrency & Swift 6 en marzo.
Y en iOS Dev Weekly #737, Dave Verwer destaca varios recursos interesantes: cómo usar previews de SwiftUI en el editor Zed, un tutorial para ejecutar Swift en Raspberry Pi, y Tessera, un nuevo paquete Swift para crear patrones repetitivos en fondos de apps.
Antes de despedirnos, dos recomendaciones de audio para las fiestas:
En Apple Coding Daily, no os perdáis Un iPhone ROBADO desvela los 40 productos SECRETOS de Apple. Un iPhone prototipo vendido ha filtrado información sobre más de 40 productos secretos: iPhone plegable, robots domésticos, gafas con IA, un MacBook de 699€... La mayor filtración de la historia de Apple, contada con todo detalle.
Y en Apple Coding, tenemos una charla imprescindible con Antonio Leiva, Google Developer Expert en Android y especialista en IA. La conversación gira en torno a cómo la inteligencia artificial está transformando los roles profesionales en el desarrollo de software. El título lo dice todo: “La IA hizo desaparecer al programador senior”. Spoiler: no es tan dramático como suena, pero sí que hay mucho que reflexionar.
Ha sido un año extraordinario. Swift cumple una década abierto al mundo, Apple publica investigación que parecía ciencia ficción, los videojuegos reciben el tratamiento que merecen, y la comunidad sigue creando contenido de primera. 2026 promete ser aún mejor.
Y antes de irnos, una recomendación: si queréis seguir aprendiendo Swift entre newsletter y newsletter, no dejéis de visitar Swift Pills, el blog de nuestro compañero Arturo Rivas. Publica de forma continua tutoriales y guías sobre desarrollo Swift que os vendrán de maravilla.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Desde un físico cuántico que nos cuenta cómo la IA está transformando el desarrollo, hasta los grandes rivales tecnológicos sentándose a crear estándares juntos, pasando por Apple preparando eventos presenciales para enseñarnos a dominar sus nuevos frameworks de IA. Y entre medias, Swift 6.2.2, los App Store Awards 2025 y el Real Madrid metiéndose de lleno en la computación espacial. Una semana para recordar.
El pasado 9 de diciembre se anunció oficialmente Swift 6.2.2, una actualización de mantenimiento que, aunque no trae cambios revolucionarios, sí incluye correcciones importantes para quienes trabajan fuera del ecosistema Apple.
Las mejoras se centran en tres áreas: un nuevo manejador de errores fatales en el módulo Observation, correcciones en LLDB para Windows relacionadas con la búsqueda de librerías Python, y mejoras en el Swift Package Manager para detectar scripts GNU ld que se presentan como librerías del sistema.
Si trabajas en Linux o Windows, actualizar es tan sencillo como:
swiftly install 6.2.2O si prefieres estar siempre a la última:
swiftly install latestPara el resto, Xcode 26 ya incluye las herramientas necesarias. Lo importante es que Swift sigue madurando como lenguaje multiplataforma, y cada versión de mantenimiento es un paso más en esa dirección.
Apple ha actualizado su colección de ejemplos introductorios para visionOS con un nuevo proyecto que merece atención: “Animating hand models in visionOS”. Este ejemplo demuestra cómo trabajar con los modelos de manos del usuario para crear animaciones personalizadas, aprovechando el seguimiento de manos que visionOS ofrece de serie.
Para quienes estéis explorando el desarrollo espacial, recordad que visionOS 26 ya soporta seguimiento de manos a 90 Hz sin código adicional, lo que abre posibilidades interesantes para juegos y aplicaciones que requieren movimientos rápidos y precisos.
Y hablando de Vision Pro, aunque la noticia es de hace unas semanas, no podíamos dejar de mencionarla: Real Madrid y Apple anunciaron una colaboración para crear un documental inmersivo en formato Apple Immersive que se estrenará en 2026. El proyecto, que Florentino Pérez ha bautizado como el “Bernabéu Infinito”, se está grabando con más de 30 cámaras Blackmagic durante la actual temporada de Champions League.
Eddy Cue, vicepresidente de servicios de Apple, visitó el Santiago Bernabéu para cerrar el acuerdo. La idea es que los aficionados de todo el mundo puedan experimentar el ambiente del estadio como si estuvieran allí, en vídeo 180 grados a 8K con audio espacial. Una apuesta decidida por el contenido premium que puede marcar el camino para otros clubes y organizaciones deportivas.
Esta semana hemos tenido el privilegio de estrenar temporada en Apple Coding con una entrevista muy especial. Tirso López Ausens, doctor en Mecánica Cuántica Aplicada por la UPV y actualmente Director Técnico de Proyectos en Multiverse Computing, nos acompañó durante más de una hora para hablar sobre el presente y futuro de la inteligencia artificial en el desarrollo de software.
La conversación tocó temas fascinantes: desde cómo los agentes de IA están cambiando para siempre la forma en que escribimos código, hasta si tiene sentido seguir estudiando programación en un mundo donde los modelos de lenguaje generan código con facilidad. Spoiler: sí tiene sentido, pero por razones que quizá no esperas. Podéis ver la entrevista completa en YouTube o escucharla en vuestro cliente de podcasts favorito.
Y si queréis profundizar en las últimas novedades de IA, en Apple Coding Daily hemos dedicado tres episodios consecutivos a desengranar lo que está pasando:
8x04 - STARFlow-V: Apple ha publicado investigación que cambia el paradigma de los modelos de difusión para generación de vídeo. Una forma mucho más eficiente de crear contenido visual sintético que podría acabar integrada en dispositivos.
8x05 - CLaRa: Los agentes de IA pierden contexto en sesiones largas de programación. Apple propone CLaRa, una solución basada en RAG (Retrieval-Augmented Generation) para que la IA entienda tu código de verdad, no solo las últimas líneas que has escrito.
8x06 - Agentic AI Foundation: La Linux Foundation ha anunciado una iniciativa donde los mayores rivales de la IA han decidido crear estándares abiertos juntos. Cuando empresas que compiten ferozmente se sientan a colaborar, algo gordo está pasando.
Podéis seguir Apple Coding Daily en Cuonda o en YouTube.
Y hablando de inteligencia artificial, Apple ha confirmado que traerá sus eventos presenciales “Meet with Apple” a Madrid los días 2, 3 y 4 de febrero de 2026. Se esperan dos sesiones diferenciadas:
Una dedicada a Liquid Glass, el nuevo lenguaje de diseño que define iOS 26, iPadOS 26 y el resto de sistemas operativos. Una oportunidad única para aprender de primera mano cómo adaptar vuestras apps al nuevo paradigma visual.
Otra centrada en el Foundation Models Framework, el framework que permite acceder al modelo de lenguaje de ~3B parámetros que Apple incluye de serie en sus dispositivos. Inferencia local, gratuita, privada y sin necesidad de conexión.
El lugar exacto está por confirmar, pero si tenéis oportunidad de asistir, no lo dudéis. Estos eventos suelen tener plazas muy limitadas y la posibilidad de hablar directamente con ingenieros de Apple no tiene precio. Estad atentos al portal de eventos de Apple Developer.
El 4 de diciembre, Apple anunció los ganadores de los App Store Awards 2025. 17 apps y juegos reconocidos por su innovación técnica e impacto cultural. Algunos destacados:
Apps del año:
iPhone: Tiimo, una app de planificación que convierte calendarios caóticos en líneas de tiempo visuales y relajantes.
iPad: Detail, herramientas de edición de vídeo con IA que democratizan la producción audiovisual.
Mac: Essayist, para estudiantes e investigadores que necesitan organizar fuentes y formatear trabajos académicos.
Vision Pro: Explore POV, experiencias inmersivas que te transportan a playas, bosques y ciudades del mundo.
Apple Watch: Strava, conectando a la comunidad global de atletas con seguimiento en tiempo real.
Juegos del año:
iPhone: Pokémon TCG Pocket, la evolución del fenómeno de cartas coleccionables.
iPad: DREDGE, pesca y horror cósmico en un juego que define el género “cozy creepy”.
Mac: Cyberpunk 2077 Ultimate Edition, demostrando que Apple Silicon puede con todo.
Vision Pro: Porta Nubi, puzzles atmosféricos entre las nubes.
Y mención especial para los premios de Impacto Cultural, donde destaca Be My Eyes, que combina IA y voluntarios para ayudar a personas ciegas o con baja visión. Tecnología con propósito.
La comunidad Swift no descansa ni en diciembre. Aquí van los artículos más destacados de la semana:
Antoine van der Lee en SwiftLee nos regala dos piezas imprescindibles:
Battery life on iOS and the myth of killing apps (9 dic): Desmontando el mito de que cerrar apps ahorra batería. Spoiler: no solo no ahorra, sino que puede empeorar las cosas.
The 7 changes I do for every new Xcode project (1 dic): Esos ajustes que todo proyecto debería tener desde el principio.
Majid Jabrayilov en Swift with Majid:
Monitoring app performance with MetricKit (9 dic): Cómo usar MetricKit para construir tu propio panel de diagnóstico y resolver problemas que Xcode Organizer no puede detectar.
Natalia Panferova en Nil Coalescing con dos tutoriales muy prácticos:
Add an inner shadow to a symbol image in SwiftUI (9 dic): Cómo crear ese efecto de icono recortado con sombra interior usando SF Symbols.
Initializing @Observable classes within the SwiftUI hierarchy (2 dic): Las formas correctas (e incorrectas) de inicializar clases @Observable en vistas SwiftUI.
Si 2025 te pilló sin tiempo para formarte, 2026 puede ser tu año. En Be Native ya tenemos disponibles los cursos completos de Swift Básico e Intermedio y SwiftUI Básico e Intermedio, impartidos por María Soriano.
Lo mejor de estos cursos es que puedes seguirlos tanto con Xcode en tu Mac como con Swift Playgrounds en tu iPad. Aprender Swift mientras viajas en metro o te tomas un café en cualquier sitio ya no es ciencia ficción.
María es una formadora excepcional con más de 123.000 suscriptores en su canal de YouTube y años de experiencia creando contenido educativo sobre Swift y SwiftUI. Podéis conocer más sobre ella en su perfil de LinkedIn.
Y si lo que buscas es dar el salto definitivo, el Swift Mastery Program 2026 ya tiene matriculación abierta. Una formación intensiva donde no solo aprenderás las herramientas, sino que entenderás el porqué detrás de cada decisión. Porque en un mundo de agentes de IA que generan código, quien entiende los fundamentos siempre estará un paso por delante.
Cerramos con una nota regulatoria: desde el 10 de diciembre, la nueva ley australiana exige que las plataformas de redes sociales impidan que menores de 16 años tengan cuentas. Apple ha puesto a disposición de los desarrolladores la Declared Age Range API para facilitar el cumplimiento manteniendo los estándares de privacidad. Si tu app tiene usuarios en Australia, es momento de revisar la documentación.
Ha sido una semana intensa, de esas que te recuerdan por qué este ecosistema nunca deja de sorprender. Swift madurando en todas las plataformas, Vision Pro recibiendo contenido premium, la IA redefiniendo cómo trabajamos, y Apple preparándose para visitarnos en persona. 2026 promete.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales.
Nos leemos pronto y hasta entonces: un saludo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Entramos en la recta final de 2025 con el ecosistema Apple más activo que nunca. Esta semana nos trae Embedded Swift preparándose para su debut en Swift 6.3, Apple presentando investigación de vanguardia en NeurIPS 2025, y los finalistas de los App Store Awards calentando motores para la gala. Pero si algo define esta temporada, es la sensación de que las piezas del puzzle de la concurrencia accesible por fin empiezan a encajar.
Y hablando de encajar piezas, esta semana hemos tenido el privilegio de despedir a 38 nuevos desarrolladores que han completado el Swift Developer Program. Semanas de formación intensiva donde han adquirido una base sólida en Swift, SwiftUI, arquitecturas y buenas prácticas. Lo más valioso que se llevan no son las herramientas que han aprendido a usar, sino el conocimiento profundo del lenguaje y sus fundamentos. En un mundo donde los LLMs generan código a golpe de prompt, quien entiende el porqué detrás de cada línea siempre estará un paso por delante. Enhorabuena a todos ellos, el camino acaba de empezar.
El 17 de noviembre, el equipo de Swift anunció las mejoras que llegarán a Embedded Swift con la versión 6.3. Para quien no lo conozca, Embedded Swift es un subconjunto del lenguaje diseñado para entornos con recursos limitados: microcontroladores, sistemas embebidos, y todo ese universo donde cada kilobyte cuenta.
Lo interesante es que la gran mayoría del lenguaje Swift funciona exactamente igual en modo embebido. La diferencia está en el compilador, que genera binarios significativamente más pequeños que la compilación estándar. Hasta ahora, poner Swift en un microcontrolador requería magia negra y paciencia infinita. Con Swift 6.3, tener Embedded Swift como parte de los nightly builds y eventualmente de la release estable es un salto cualitativo para quienes trabajan en IoT o sistemas de bajo nivel.
Una de las barreras de entrada a Swift moderno ha sido la concurrencia. El modelo de actores y async/await es potente, pero para muchos desarrolladores venidos de otros mundos resultaba intimidante. Antoine van der Lee publicó esta semana una guía sobre Approachable Concurrency en Swift 6.2 que promete cambiar eso.
Swift 6.2 introduce mejoras pensadas para hacer la concurrencia más accesible sin sacrificar seguridad. El objetivo es claro: que escribir código concurrente correcto sea tan natural como escribir código síncrono. Los data races siguen siendo el enemigo, pero ahora tenemos mejores armas para combatirlos sin necesidad de un doctorado en sistemas distribuidos.
Si aún no has dado el salto a la concurrencia moderna, este es el momento. Y si quieres profundizar en cómo aplicar estas técnicas junto con herramientas de IA para el desarrollo, la formación Swift IA Mastery Program te dará las claves para dominar tanto el código como las herramientas que lo potencian.
iOS 26 trajo consigo la interfaz Liquid Glass y SwiftUI ha recibido su correspondiente dosis de novedades. Paul Hudson ha publicado su ya tradicional What’s new in SwiftUI for iOS 26 y hay material para entretenerse:
WebView nativo: Por fin podemos incrustar contenido web sin recurrir a UIKit. Adiós al UIViewRepresentable con WKWebView.
Rich Text Editing: TextEditor ahora soporta AttributedString para edición de texto enriquecido real.
Macro @Animatable: Animar vistas y modificadores personalizados nunca fue tan sencillo.
TabView minimizable: La barra de pestañas puede minimizarse al hacer scroll, siguiendo la filosofía de Liquid Glass.
openURL con navegador integrado: Ya no es necesario expulsar al usuario a Safari para mostrar un enlace.
Las etiquetas de índice en secciones de listas y el ancho fijo para iconos en Label pueden parecer menores, pero son de esas mejoras que te hacen pensar “¿Cómo hemos vivido sin esto?”.
¿Te está gustando esta newsletter? Es solo una pequeña parte de lo que encontrarás en Be Native, la app donde aprender Swift y desarrollo iOS en español. Podcasts, vídeos, cursos, snippets y artículos organizados en rutas de aprendizaje desde iniciación hasta nivel experto. Además, podrás guardar tus favoritos, crear cuadernos digitales y marcar el momento exacto de cada vídeo para volver cuando lo necesites. Descarga Be Native y lleva tu formación como desarrollador Apple al siguiente nivel.
La conferencia NeurIPS 2025 está a la vuelta de la esquina y Apple llega cargada de investigación en machine learning. Entre los trabajos destacados, nos llama especialmente la atención ExpertLens, que explora cómo las características de activation steering en modelos de lenguaje son altamente interpretables.
Pero el artículo que más nos ha hecho salivar es Exploring LLMs with MLX and the Neural Accelerators in the M5 GPU. El framework MLX sigue evolucionando como la herramienta de referencia para experimentar con técnicas de inferencia en Apple Silicon. Y sí, has leído bien: M5 GPU. Los aceleradores neurales de la nueva generación de chips prometen llevar la ejecución local de modelos a otro nivel.
La investigación de Apple en ML no es solo académica. Todo esto acaba aterrizando en Core ML, Create ML y las capacidades de Apple Intelligence que usamos cada día. Entender cómo funciona por dentro nos hace mejores desarrolladores.
El 13 de noviembre, Apple anunció el Mini Apps Partner Program. Se trata de un programa para apps construidas con tecnologías web que ofrece una comisión reducida del 15% en compras In-App si se implementan las APIs de comercio y verificación de edad requeridas.
Si tienes dudas, en Apple Coding Daily te lo contamos y qué supone eso para los modelos de negocio en el App Store. Puedes oírlo aquí o verlo aquí.
Junto a esto, las App Review Guidelines recibieron una actualización importante: requisitos de restricción de edad para apps de creadores, límites de APR del 36% para apps de préstamos, y prohibición de usar iconos de competidores sin aprobación. Si publicas en la App Store, es lectura obligada.
A partir del 1 de enero de 2026, la ley Texas SB2420 exigirá verificación de edad para la descarga de apps. Apple proporcionará la Declared Age Range API para ayudar a los desarrolladores a cumplir manteniendo los estándares de privacidad. Si tu app tiene usuarios en Texas, es momento de empezar a planificar.
El SDK de Temporal para Swift ya está disponible como proyecto open source. Temporal permite construir workflows duraderos y confiables que sobreviven a fallos, reinicios y despliegues. Si trabajas con sistemas distribuidos o procesos de larga duración, merece un vistazo:
import Temporal
@WorkflowDefinition
struct OrderProcessingWorkflow {
@WorkflowQuery
var status: OrderStatus = .pending
@WorkflowMain
func run(orderId: String) async throws -> OrderResult {
// Los workflows de Temporal sobreviven a reinicios
let payment = try await PaymentActivity.processPayment(orderId: orderId)
status = .paymentProcessed
let shipping = try await ShippingActivity.scheduleShipment(orderId: orderId)
status = .shipped
return OrderResult(payment: payment, shipping: shipping)
}
}La idea es simple pero potente: defines tu lógica de negocio como código Swift normal, y Temporal se encarga de la durabilidad, los reintentos y la recuperación ante fallos.
Para los amantes del Swift en servidor, los vídeos de la conferencia ServerSide.swift 2025 ya están disponibles en YouTube. Desde Vapor hasta Hummingbird, pasando por casos de uso en producción, hay material para varias tardes de aprendizaje.
Cerramos esta última semana de noviembre con la sensación de que Swift sigue madurando en todas las direcciones: sistemas embebidos, concurrencia accesible, interfaces de cristal líquido, y ML de vanguardia. El ecosistema nunca ha sido tan rico ni ha ofrecido tantas posibilidades.
A los 38 compañeros que acaban de graduarse del Swift Developer Program: el conocimiento que habéis adquirido es vuestro superpoder. Los LLMs pueden generar código, pero solo quien entiende los fundamentos puede evaluar si ese código es correcto, eficiente y mantenible. Seguid aprendiendo, seguid preguntando, seguid rompiendo cosas para entender cómo funcionan.
Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos encantados de leeros.
Nos leemos pronto y hasta entonces: un saludo y buen código nativo.
¡Gracias por leer nuestra Newsletter! Nos vemos en Be Native.
]]>Esta semana ha sido LA semana. Una Worldwide Developer Conference claramente dividida en 2 partes: una fue evolución de los sistemas operativos y otra, la manera en que Apple integrará la Inteligencia Artificial en ellos. El ritmo fue, como viene siendo habitual los últimos años, bastante frenético debido a la cantidad de cosas que quisieron enseñarnos.
Respecto a las novedades evolutivas, bastantes, no de un calado excesivamente profundo, pero si orientadas a que nuestros dispositivos sean más personales. Nuestra idea es que se trataba del camino a seguir desde hace tiempo, cumplir un roadmap que bien pudo ser diseñado hace años. La diferencia con lo que vino a continuación, significa que la irrupción de la IA le hizo a Apple ponerse la pilas. Creo que el llevarlo de forma paralela será todo un acierto, una cosa son los nuevos sistemas y otro la capa de Apple Intelligence. Una IA integrada que será también muy personal al contar acceso a los datos que tienes en tus dispositivos, y los cruza para proporcionar una información tan valiosa como precisa. Pero tranquilo, Todo casi todo, pasa en tu iPhone. Muy buena pinta, pero: en beta y en inglés a partir de otoño. Las cosas de palacio van despacio. Y según rumores con lista de espera.
Un apunte que no podemos dejar pasar antes de entrar en harina: casi la gran mayoría de las novedades presentadas está accesibles mediante APIs para ser incorporadas por los desarrolladores. Algo que, si bien empieza a ser tendencia, solía no ser así hace unos años. Demos gracias a Jobs, o quizás todo lo contrario… 🤔
Apple lleva tiempo haciendo cambios en cuanto a la documentación. Desde el lanzamiento de librerías para crearla, organizarla y publicarla hasta integración con servicios para descubrir paquetes interesantes desarrollados por la comunidad. Esta vez ha sido un lavado de cara del punto de encuentro de toda la documentación para desarrolladores de sus sistemas. Más allá de retoques, tiene una landing de entrada que promete no ser sólo bonita sino también práctica para descubrir y encontrar documentación.
Tenemos una mudanza. Y no pequeña, porque toda la estructura del proyecto Open Source de Swift en GitHub, pasa a estar bajo el paraguas de la organización swiftlang. Ya no dependerá por tanto, de la misma estructura que el propio software de Apple. Desconocemos las implicaciones internas, pero nuestra intuición es que es algo más legal y organizativo que funcional ya que Apple no cambia su implicación en el proyecto.
Si frenéticas fueron las charlas inaugurales, no lo son menos los What’s new de los grandes frameworks. Especialmente denso, fue el de SwiftUI. Nada del otro jueves, pero muchos pequeños detalles, por lo que este vídeo es un resumen que te recomienda acudir a otros, donde cuentan las novedades con más detenimiento. Hay que tomárselo con calma, es mucho contenido y ya sabemos que no siempre es posible aplicarlo los primeros días.
No sabemos si es la flexibilidad del framework o simplemente que aún está refinando comportamientos, pero hay varios cambios en la forma de construir aplicaciones. Afortunadamente, no rompen lo anterior así que keep calm and @available.
Hay un muchachito nuevo en el barrio. Ya os adelantamos en su día, que dentro del proyecto de Swift, se estaba gestando un proyecto para crear una librería de testing más moderna que los XCTest, basada en macros y usando todas la capacidades del lenguaje Swift. Ha culminado en el framework Swift Testing y presentada en esta WWDC. Ejecución en paralelo por defecto, una sintaxis bastante sencilla para las comprobaciones, declaración de múltiples entradas… una maravilla oiga.
Lo mejor de todo, por si lo anterior fuese poco, es que será compatible desde Xcode 16 en adelante. Da igual que tu aplicación corra en sistemas anteriores a los presentados, que al ser algo a nivel lenguaje no habrá problema. Y puede coexistir con los planes de existentes. Porque testar también puede ser divertido. Y recuerda: este es el nuevo sistema de test unitarios por defecto en Xcode 16. ¿Sigue funcionando XCTest? Sí, claro. Pero si creamos un nuevo proyecto usará la nueva librería Testing que ya está cargada y forma parte del conjunto de Cocoa y Cocoa Touch.
El miedo a la comprobación estricta de concurrencia, y a los avisos que aparecieron cuando adoptaste Swift 5.10 en tu proyecto, debe desaparecer. Los porqués son varios. Algunos de estos avisos ahora serán errores, pero otros ya no porque el compilador a mejorado para analizar flujos y evitar falsos positivos. Otra ventaja es que se puede actualizar un proyecto a Swift 6 sin activar la comprobación si necesitas utilizar otras características desde el primer día. Incluso permite migrar librería a librería por si el proveedor de turno está perezoso.
Se trata de un nuevo modo del lenguaje, como se hiciera en alguna versión anterior que incluía cambios importantes. Esto permite realizar migraciones paso a paso y paquete a paquete. El golpe no ha sido tan duro y sin duda, un código libre de data races es mucho más robusto y predecible. Recuerda que, aunque en Swift 5.9 y anteriores no se mostrasen estos errores, no significa que no estuvieran ahí.
Una de las APIs que más protagonismo ha tenido es la de animaciones y transiciones. Mucha tela que cortar: empezando por un nuevo tipo de navegación de pilas, se le suma la unificación de las animaciones entre plataformas (las de SwiftUI está disponibles en UIKit y AppKit). Por si fuese poco, se le unen nuevas transiciones y mayor control sobre las mismas en nuestros queridos SF Symbols. Todo un lujo para nuestra vista, y para nuestro código.
Las preview también se encuentran entras las funcionalidades agraciadas con novedades y mejoras. Una de ellas es un nuevo modificador que permite crear variables de estado, ya no tendremos que crear vistas embebidas y otros experimentos. Además, la compilación ahora se asemeja más a la de la propia aplicación, por lo que serán más ágiles y tardarán menos en refrescar los cambios. Supusieron un antes y un después en el diseño y prueba de interfaces gráficas y siguen evolucionando con el sistema.
No podemos olvidar las expectativas de cómo Apple iba a avanzar con Apple Vision Pro y no decepcionó. Aunque en principio solo se habló que cosas de poco calado, como nuevos gestos para invocar el menú y poca cosa más, cuando levantamos el capó en la verdadera conferencia inaugural, el Platforms: State of the Union, la verdad que por dentro está cargado de novedades.
Ahora las empresas que hagan apps a publicar en el Business Manager de Apple podrán acceder a la cámara del dispositivo y ver lo que ve el usuario o al passthrough que monta la realidad con el mundo digital. Podrán usar el motor neural y con ello no habrá limitación a las posibilidades que sacar en aplicación industrial o empresarial al dispositivo.
También tenemos nuevos APIs como TableTopKit que nos permite colocar experiencias y objetos sobre superficies o una API volumétrica que nos permite modificar este tipo de experiencias como queramos (no como hasta ahora que tenían un tamaño fijo). Y por supuesto: ahora podemos colocar las múltiples ventanas y elementos de nuestra app donde queramos, con mucha más libertad.
Si quieres saber más de estas novedades, pásate por el directo que hicimos junto a Eduardo Herranz de Spatial Voyagers contando todas las novedades, que tienes aquí. Y no olvides que nuestra formación Vision Developer Program os daremos un adelanto de todo esto.
Tras una semana intensa, vuelta a la calma. Recordad que no hace falta verse todo el contenido, ni tiene que ser en los primeros días. El año que viene habrá otra WWDC y la rueda seguirá girando. A nosotros ya sabéis que nos encanta aprender cosas nuevas.
Durante las siguientes semanas prometemos traer las novedades más importantes para los desarrolladores, que hayan podido quedar sepultadas la avalancha del mainstream. Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales, nuestro correo [email protected] y la cuenta de X @caffeswift. Y pronto tendréis el primero de los Caffè Swift especial WWDC24.
]]>¡Hoy es el día que comienza la WWDC! Y la tremenda inundación de rumores sobre lo que Apple presentará, resulta incluso abrumadora. La compañía cada vez está más en el foco mediático y eso se nota. Como somos unos románticos y nos gusta llegar a la keynote lo más frescos posible, vamos a desmarcarnos de la rumorología y hablaremos de las novedades en la siguiente edición.
Con la excusa de que es nuestra herramienta del día a día, vamos a saltarnos la norma, y comentar que Mark Gurman afirma que la integración de una suerte de asistente, al estilo de GitHub Copilot, en Xcode será presentada pero no estará preparada hasta el año que viene. Analizando las implicaciones, el calado y el estado del arte de los modelos generativos, beta será lo segundo más repetido, detrás de inteligencia artificial claro.
¿Será esta integración la que suponga el salto a un nuevo Xcode basado en Swift Playgrounds? Quién sabe, pero es raro que Apple haya evolucionado esta herramienta de forma tan lenta, cuando permite incluso publicar aplicaciones con un nuevo tipo de proyecto Swift basado en Swift Package Manager. Soñar es gratis así que os dejamos una de las listas de deseos para los desarrolladores en esta WWDC.
No es nuevo el hecho de que dividir una aplicación en paquetes es una muy buena práctica para organizar el código y separar las capas lógicas de un proyecto. Aunque las opciones son varias, si utilizamos Swift deberíamos darle una oportunidad a Swift Package Manager. Además de ser el gestor de primer orden para el lenguaje, se trata de una integración potente y ligera que debería cubrir la práctica totalidad de los escenarios. En esta pieza se explica cómo crearlos y lo bien que se integra SPM con Xcode.
Si os preguntamos cuál es la primera forma que se os ocurre de imprimir un valor en la consola, vengas de casi cualquier lenguaje dirás que con el comando print. Mentira no es, pero se puede mejorar. Aunque antiguamente era un poco enrevesado, desde hace algunas versiones, los sistemas de Apple tienen una API de log unificada. La recomendación es empezar a usarla cuanto antes, incluso para depurar código. Si no te hemos convencido, quizás este artículo lo haga.
La forma de navegar y las APIs existentes han variado, quizás demasiado para nuestro gusto, desde el lanzamiento de SwiftUI. Pasamos de un NavigationView como cajón de sastre que servía para todo, a diferenciar entre vistas apiladas y vistas divididas. En estas últimas, el comportamiento y la forma de gestionarlo ha cambiado bastante y puede haber pillado despistado hasta al desarrollador más avezado. No hay problema, echa un vistazo a esta pieza y no se te resistirá ningún tipo de presentación.
Algunas veces son cambios, y otras veces nuevas opciones para personalizar la presentación de vistas. Las presentaciones modales han adquirido una nueva dimensión con el añadido de los detents. Ya no es necesario acudir a hechizos complejos para gestionar el espacio que ocupan, tan necesaria era la API que también tiene su homólogo en UIKit. Descubre todas las opciones disponibles a día de hoy. Ah, y por si aún tienes proyectos en el mencionado, y vetusto, framework de desarrollo UIKit, debes saber que también puedes usar las nuevas previews de iOS 17.
Extraña combinación, ¿verdad? Spoiler: no tienen nada que ver. Empecemos con AsyncImage, ese componente amado y odiado que permite de forma bastante personalizable, cargar una imagen desde una URL. Y decimos bastante porque quitando el componente visual, la lógica detrás de la descarga guarda algunos secretos: si necesitas algo avanzado tendrás que hacerlo con tu propio código.
El aroma del café para cafeteros hoy viene del pasado, de muy lejos. De cuando esta Newsletter no tendría ni razón de ser… Hablamos de Objective-C. Si, por los devenires de la vida, te ha tocado lidiar con un proyecto que contenga este lenguaje y jamás has oído hablar de él pero te defiendes en Swift, deja lo que estés haciendo y revisa esta pieza.
Cerramos la barraca con la promesa de futuras ediciones cargadas de información, probablemente lo complicado sea filtrarla. Nos vemos al otro lado.
Y recuerda: si quieres seguir la WWDC24, puedes hacerlo con nosotros en directo: estarán Julio César Fernández, Arturo Rivas y María Soriano cubriendo tanto el evento principal, como un debate posterior con desarrolladores y creadores de contenido y, por supuesto, la conferencia que realmente esperamos: la State of the Union donde nos cuenten “la chicha” detrás de lo presentado. ¿Contamos contigo? Puedes seguir en Youtube o en nuestro Twitch. Apúntate al evento en nuestro servidor de Discord para no olvidarte y saber la hora en tu país..
Concretamente al que está después de la semana fantástica de la Worldwide Developer Conference de Apple. Si queréis dejarnos un comentario o contarnos cualquier cosa, estamos en los canales habituales, nuestro correo [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>No es un evento, es “el evento” para muchos de los que nos leéis en cada edición. A pocas semanas de la celebración de la WWDC de Apple, ya tenemos horarios para las conferencias inaugurales: 19:00 para la keynote principal y 22:00 para el Platform State of the Union, hora española peninsular. En la primera nos gusta porque hablarán sobre el qué, la segunda nos encanta porque nos contarán el cómo.
La rumorología intensifica su actividad durante estos días y van surgiendo detalles más específicos sobre posibles novedades. Desde funcionalidades donde Apple usaría la IA generativa, hasta rediseño de springboard, los ajustes o incluso el centro de control. Como realmente no lo sabremos hasta el 10 de junio, os traemos algunas piezas sobre qué esperar y cómo prepararos de cara el evento. También hemos querido jugar una partida de póker con apuestas sobre la conferencia en el podcast de Caffè Swift.
SwiftUI supuso un soplo de aire fresco, pero también un cambio de paradigma y un gran salto en los frameworks de desarrollo de aplicaciones. La tecnología actual está muy madura y el predicamento de Apple indica que es el framework de primera clase para construir cualquier aplicación para sus sistemas. Esta pieza nos cuenta al evolución desde su lanzamiento y los desafíos que aún tiene que enfrentar. Seguro que vemos novedades pronto.
Pero si el año pasado hubo una librería digna de mención, fue la esperada SwiftData. El vetusto CoreData y sus múltiples achaques fruto de los años, dejaron paso a la modernidad y la forma Swifty de hacer las cosas. Muchas novedades, una base sólida pero mucho camino por delante para estar a la altura. Os dejamos un artículo con las luces y las sombras. Seguro que este año vemos mejoras y nuevas características que le darán un empujón para situarlo donde debiera estar.
Esperamos que Apple presente un renovado Xcode asistido de varias formas por IA. Pero por si acaso, y desde ya mismo, puedes usar los chatbots existentes para generar código con estos 5 consejos que te permitirán sacarle todo el partido a las nuevas herramientas. Su integración no es tan profunda y requieren más trabajo, pero pueden ayudarte en tu labor como programador.
Hace años, si llevabas un tiempo creando aplicaciones para iOS y te planteabas el salto a macOS, no era un camino de rosas. ¿UIKit y AppKit se parecen? Si. ¿Son lo mismo? No… Pero llegó SwiftUI y la cosa cambió. Hay que ir con cuidado y probarlo todo bien en ambos sistemas antes de enviar tus aplicaciones a revisión, pero da gusto la evolución que ha experimentado, sobretodo, para macOS. Los escenarios, las ventanas, menús y demás en macOS eran bastante farragosas, pero la versión actual de SwiftUI permite una gestión eficiente y sencilla de los mismos.
Un problema no declarado de SwiftUI, surgido por la rápida evolución que ha tenido en su, de momento, corta vida, es que hasta los más avezados desarrolladores hemos pasado por alto algunos componentes muy prácticos. Uno de ellos es el LabeledContent que permite organizar la presentación interfaz, personalizarla e incluso se adapta al contexto para mostrar la información de forma ordenada y legible. Si aún no lo utilizas te lo recomendamos, nosotros prometemos hacerlo.
Al hilo de los componentes de SwiftUI, es digno de mención la tremenda capacidad de personalización y la facilidad de hacerlo de la mayoría de ellos. Pero no todo el monte es orégano: no todas las formas de personalización llevan a los mismos resultados. Aquí enlazamos una pieza sobre cómo se puede y cómo se debe personalizar un botón.
Una amplia mayoría de las aplicaciones modernas, utilizan algún tipo de notificación remota para actualizar información o alertar al usuario de nuevo contenido. Si para siempre han sido un arcano para ti y quieres que deje de ser así, aquí tienes una introducción a su funcionamiento. También podrás ver cómo implementarlas en tus aplicaciones.
¿Cadenas de texto? Yo ya lo sé todo sobre cadenas de texto. O no… Swift y el tipo String nos abstraen mucha de la lógica interna que permite manejar y trabajar con cadenas de caracteres. Pero siempre está bien conocer las tripas. Aquí parten de la forma de medir el tamaño de las mismas para contarnos algunas de las peculiaridades y problemas a los que nos enfrentamos cuando trabajos con ellas.
Llegamos al final de la edición con un par de artículos de lenguaje puro y duro. Fuera frameworks, herramientas, librerías… hablemos de Swift y punto. Lo primero que traemos es una de las mayores bendiciones de los que nos gusta reducir la sintaxis de un código a su mínima expresión: las sentencias como asignación. Vale ya de usar return por todos lados y de crearnos variables sin inicializar antes de los switch e if, ahora podemos asignar su salida de forma directa. ¡Alabado sea Jobs!
¿Oléis eso? El aroma del café intenso ha inundado esta newsletter. Y tan intenso. Ya hemos hablado de la comprobación estricta de concurrencia que tantos dolores de cabeza va a provocar con la salida de Swift 6. Que necesites actualizar tu código pase, pero ¿qué hay de las librerías que utilizas y que no se actualicen? Amigo, hay una solución. Bastará marcar como @preconcurrency la librería, tipo o función que necesites usar pero que no haya adoptados las nuevas medidas.
Y pare cerrar, si todavía tenéis dudas de la estrategia que seguirá Apple para la IA o en qué dispositivos funcionará, no dejéis de visitar nuestro canal de Youtube (y suscribiros) donde os contamos “Los 3 Pilares de la IA generativa para Apple” (que llegarán en la WWDC) y, por supuesto, nuestro último Caffè Swift en vídeo que también lo tenéis en el canal, si queréis asistir en directo al “Póker de la WWDC24”.
Se ve, se siente, la World Wide Developer Conference está presente. Despedimos esta edición con ganas e ilusión de que llegue y os animamos a dejarnos comentarios o cualquier cosa que queráis contarnos en los canales habituales. Bien por correo en [email protected] o en nuestra cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Tiendas alternativas: no solo en iOS, también en breve llegarán a iPadOS. Cabe recordar que sólo en Europa, pero la primera (el AltStore) llegó con solo dos apps y se esperan otras anunciadas como una de Microsoft con sus juegos para Xbox en Cloud Gaming y varias apps propias, además de la tienda de SetApp. AltStore además cobra 1,50€ más impuestos al año para cubrir el CTF (Core Technology Fee) que es la tarifa que Apple cobra a partir del millón de instalaciones al año a las apps que tengan algún tipo de monetización (las completamente gratuitas se libran).
Desde luego, la primera tienda no podía empezar peor porque bajo el reclamo de “Discover apps that push the boundaries of iOS.” Y uno de esos boundaries son: un portapapeles vitaminado que te satura de notificaciones para que abras la aplicación cada vez que copias algo para no perderlo, y un emulador que fuera de Europa está disponible en el App Store. La realidad es que Apple ha eliminado para el acuerdo de negocio de las tiendas alternativas todas las condiciones de negocio y varias más de otros apartados, pero ha conservado todo lo referente al control de contenido y a la privacidad. Podemos ver las diferencias en las normas en App Review Guidelines pulsando en el check “Show Notarization Review Guidelines Only”.
Esta semana nos hacemos eco de Mark Gurman, donde asegura que Apple habría conseguido que, las características de sus próximos sistemas operativos que requieren IA, se ejecuten completamente en el dispositivo. Esto nos lleva a Private LLM que utiliza distintos modelos para crear un chatbot que se ejecuta en el terminal y a la historia de este chico que ha aportando tanto valor creando modelos para ejecutar con MLX, que la propia comunidad le ha comprado un portátil nuevo todo chetado que dice la juventud. Aunque eso no quita que Apple parece que habría cerrado un acuerdo de colaboración con OpenAI para integrar sus soluciones en sus nuevos sistemas, sobre todo el espectacular recién presentado modelo GPT4o. De hecho, habrá app de escritorio de ChatGPT para Mac, capaz de ver nuestra pantalla para ayudarnos en cualquier tarea. Solo compatible con Mac con chips Apple Silicon y macOS 14 en adelante.
Y aviso a navegantes, el 1 de Mayo se cumplió el plazo por el que ahora es necesario que todas las aplicaciones que se envíen al App Store para revisión, declaren el uso de las APIs que puedan comprometer la privacidad del usuario. No es un proceso complicado, y llevan algunos días avisando. Cuando subimos una versión que no los declara, un correo bastante detallado nos indica exactamente lo que nos hace falta para corregirlo. ¡Avisados quedáis! Y también debéis incluir en los informes de privacidad (Nutrition Labels) todo lo que cualquier API de terceros haga en vuestra app con los datos de cliente: ojo a los millones de apps con Firebase.
Uno de los tipos más utilizados de Swift, que permiten las abstracción de listas finitas de forma segura, son los enum. Pero lo útil puede volverse en su contra si no lo usas correctamente. Aquí os dejamos con varios de los errores que no debes cometer.
En el Podcast ya hemos hablado de descomposición y paquetización de proyectos. En esta pieza no sólo hablan de los pros y los contras, si no que el autor detalla cómo ha realizado la descomposición de su propia aplicación, paso por paso, con muchos ejemplo de cada parte.
Cerramos la sección con una colección de atajos de teclado para ser más productivos con Xcode. Puedes debes llamarlos combos si quieres.
Las arquitecturas de software dan para debate, y seguramente que enérgico porque es uno de los temas más controvertidos. Y el amigo Pedro de SwiftAndTips, nos deja esta pieza donde se pregunta si realmente son necesarios los ViewModel en SwiftUI o si su uso es una desventaja frente a simplemente tener Modelos y Vistas bien organizados. Sin salirnos de las vistas de SwiftUI, tenemos esta pieza sobre cómo pasar una vista a otra como parámetro. Recuerda: siempre hay que ser nativo, pero asomarse a ver qué recomiendan expertos nunca es malo.
No suele faltar entre los artículos destacados el blog SwiftLee, esta semana os dejamos una pieza sobre los gráficos de barras de la librería SwiftCharts. Atrás quedaron los días de pintar gráficos a mano o con librerías de terceros. Lo que si que podemos dibujar son los archivos SVG en las vistas de SwiftUI. El elemento Shape permite hacerlo de forma sencilla.
Y no queremos cerrar sin nuestra sección cafetera. Empezamos una pieza de Donny Wals sobre cómo activar las características experimentales de Swift en la configuración de Xcode, que hará las delicias de los más aventurados. En este grupo seguramente se encuentran también los desarrolladores que no se conforman con usar las Macros que ofrecen el lenguaje y los frameworks más utilizados, si no que están dispuestos a hacer las suyas propias.
El aislamiento de variables, y asegurar que son escritas y/o leídas de forma segura, es algo que preocupa con el nuevo modelo de concurrencia async/await pero el problema viene ya de los tiempos de Grand Central Dispatch. Una buena forma de tener claro lo que implica, es diferenciar entre aislamiento dinámico y estático.
Desde AC Academy estamos de enhorabuena pues hemos lanzado un nuevo programa formativo que se impartirá el próximo mes de julio en modalidad online en directo, que está pensado para todos vosotros, desarrolladores en entornos Apple: Vision Developer Program. Una formación que os enseñará a cómo crear apps para visionOS desde 0 con SwiftUI, SwiftData, RealityKit y el resto de herramientas de la nueva plataforma de realidad extendida (computación espacial) de Apple.
Una formación pensada para desarrolladores en entornos Apple con UIKit o SwiftUI, que quieran dar el siguiente paso y aprender a cómo estar presentes en el desembarco de toda una nueva plataforma en la que Apple lleva trabajando casi desde el lanzamiento del iPhone. Tienes todos los detalles en nuestra web.
Parece un cambio menor, pero las tiendas alternativas van a, por lo menos, hacer pensar a Apple en otras formas de hacer la suya más competitiva. Seguiremos con la silly season de cara a la WWDC y como siempre, mucho Swift. Si quieres dejarnos cualquier comentario o contarnos algo, puedes dirigirlo a nuestros canales habituales que son el correo [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Después del anuncio de las fechas de la WWDC de 2024, sobre la que os dimos todos los detalles y cómo seguirla en la pasada edición de esta publicación, empezamos la silly season. Si no había empezado ya, porque raro es el momento en que los rumores no sobrevuelan la actualidad tecnológica. Sea como fuere, Apple sigue a lo suyo. Esta semana publicó la segunda versión de su modelo grande de lenguaje (LLM) llamado Ferret, que desarrolla junto a la Universidad de Columbia. Recordemos que se trata de un modelo experto en el campo de la visión computerizada. En Apple Coding nos adelantaban todos los detalles en su primera versión.
De aquí a la conferencia habrá muchos rumores, algunos de ellos se verán materializados en junio, otros más adelante, incluso el año que viene, y algunos serán fruto del clickbait o una suerte de teléfono escacharrado. Nuestra recomendación es coger todo con pinzas y disfrutar el camino. Os dejamos nuestra lista de deseos en formato podcast de Caffè Swift.
Lo que está completamente confirmado es que la próxima versión mayor de Swift, la sexta ya, debutará en algún momento entre junio y septiembre. Si no quieres que te pille el toro, aquí puedes leer sobre las novedades y cómo puedes adaptar tu código.
Xcode es querido y odiado a partes iguales. Esta compleja herramienta permite crear software para todas las plataformas de Apple. Entre sus ventajas está la interfaz, bastante limpia respecto a otros entornos similares sabiendo que de por sí son herramientas complejas, pero no siempre funciona lo bien y lo rápido que nos gustaría. Respecto a esto último, puedes aumentar tu productividad si conoces los atajos de teclado adecuados.
Una de las mejoras con el paso de los años, que combina esfuerzos en el propio lenguaje Swift, los frameworks de desarrollo y el propio Xcode, ha sido la traducción de aplicaciones. Aunque el idioma en el que se suelen programar la aplicaciones es el inglés, los usuarios no tienen porqué saberlo. Una de las claves para aumentar el número de usuarios objetivo y que estos se sientan además cómodos, es añadiendo tradiciones para, mientras más idiomas, mejor. En esta pieza puedes leer cómo hacerlo para aplicaciones escritas en SwiftUI.
La notificaciones son una parte si no fundamental, al menos importante para la gran mayoría de aplicaciones. Permiten interactuar con el usuario sin necesidad de que éste entre en la aplicación y añaden funcionalidad que de otra manera no sería posible. Siempre se habla de notificaciones push pero es posible programar notificaciones de forma local. Este artículo de AsyncLearn nos muestra como crearlas en SwiftUI, que dicho sea de paso, utiliza un hechizo que bien merecería una API directa en esta WWDC.
Las notificaciones no sólo permiten abrir nuestra aplicación desde el banner del centro de notificaciones, también podemos añadir parámetros para llevar al usuario a un punto concreto de la navegación. Una forma de hacerlo pueden ser los deeplinks. Así podemos aprovechar su implementación si ya existe, o crearla para este caso, y usarla para que al ejecutar nuestra aplicación desde enlaces web mostremos el flujo deseado.
Un tema que nos apasiona, y nos quita el sueño a parte iguales, es la reentrada de actores. Donny Wals dedica un extenso artículo para explicarnos lo que es y propone algunas soluciones mientras esperamos una evolución de Swift que permita asigna un ejecutor exclusivo en un actor.
Swift introdujo any hace alguna versiones, y endurecerá las obligatoriedad de su uso para que, un simple vistazo al código, podamos observar el compromiso de rendimiento que le supone al compilador no saber el tipo antes de la ejecución. Vincent Pradeilles nos cuenta esto y las diferencias con su hermano mayor Any dentro de esta pieza.
Semanas de transición hacia el gran evento, donde veremos mucho rumor y, tiene pinta que también algunas cosas interesantes por el camino. Apple tiene mucho software y, como pasó el año anterior, deberá soltar lastre para que la presentación inaugural no pase de la hora y pico. Los comentarios y el feedback son más que bienvenidos, puedes hacerlo en nuestros canales habituales: correo electrónico [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Habemus fecha. La conferencia mundial de desarrolladores de Apple, más conocida como WWDC, de este año 2024, se celebrará entre lunes 10 y el viernes 14 de Junio. El evento comenzará, como cada año, con la presentación de las últimas novedades en el software y los sistemas operativos de la compañía. Después tendremos otro de los platos fuertes. con el Platforms State of the Union, donde se explicarán más a fondo los detalles técnicos y las novedades enfocadas a los desarrolladores. Los siguientes días, se irán publicando otras charlas, más cortas y monotemáticas, sobre las nuevas características para programadores, diseñadores y otros profesionales que quieran desarrollar productos en cualquiera de las plataformas ofrecidas por los de la manzana.
Aunque ya es tarde para apuntarse a lista y poder acudir en persona, el contenido es pre-producido y se emite on-line para todo el mundo. Podrás verlo todo a través de la aplicación Developer, y este año también un un nuevo canal de YouTube. Las conferencias principales del primer día se emiten además en la web de eventos de Apple y en la aplicación TV.
Y por supuesto, podrás seguirlo desde nuestro canal de Youtube o en Twitch en directo con muchos amigos developers e influencers de tecnología. Un directo de más de 6 horas donde cubriremos tanto la keynote inaugural como el evento Platforms: State of the Union. ¿Te lo vas a perder?
Sobre lo que nos espera, podríamos hablar largo y tendido. No obstante, los pilares serán precisamente dos. El vice-presidente de marketing de de Apple publicó en X que la conferencia sería, Absolutely Incredible, con ambas letras en mayúscula. Junto con las novedades que la propia compañía ha presentado en el campo de los modelos generativos de lenguaje, y la multitud de proyectos que la comunidad ha ido creando con las herramientas ya publicadas, avecinan un gran paso en la incorporación de la IA tanto en el sistema como en las aplicaciones. Puedes escuchar más detalles sobre los modelos en los que trabajan y lo que podrían presentar en Apple Coding Daily.
El segundo tiene que ver con un rediseño de la interfaz. Os adelantábamos que el lenguaje de diseño de visionOS podría ser trasladado, primero a iOS y iPadOS y más tarde a macOS. De esta forma, las interfaces tendrían el mismo estilo de capas, sombras difusas y transparencias basadas en materiales, suponiendo un salto del actual flat-design al neomorfismo.
Algo menos de dos meses para salir de dudas y también para ver los avances de la versión 6 de Swift.
Algo que vimos en el contenido de la anterior WWDC, pero que no ha estado disponible hasta hace unos días, son las experiencias compartidas utilizando Spatial Persona. Tras una nota de prensa de Apple, esta opción se activó en todas las versiones 1.1 o superior del sistema de las Apple Vision Pro con las llamadas FaceTime. Esta suerte de avatar hiperrealista para las videollamadas, ha salido de la ventana donde estaba enclaustrado y ahora los otros interlocutores pueden verlo dentro de su entorno, manos incluidas. En otro Apple Coding Daily nos cuentan las posibilidades se abren a este respecto, pero recordemos, esta funcionalidad aún está en beta.
Otra de las noticias importantes, ha sido el cambio de las guías de revisión del App Store para permitir emuladores. Ahora se podrán subir aplicaciones que recreen hardware y software de otros sistemas y que permitan descargar contenido desde ellas. Eso si, el desarrollador es el único responsable de que el contenido descargado tengas las licencias necesarias o que las ROMS usadas no sean las originales o estén dentro del abandonware necesario, como ya sucede con otros emuladores como ScummVM que llevan tiempo en el App Store porque no es más que un intérprete de los scripts que daban vida a las aventuras gráficas de LucasArts de hace años. El quid está en no usar código protegido o ROMS (para las BIOS de las máquinas) copiadas byte a byte y que tengan propiedad intelectual.
La última noticia que os traemos tiene que ver con el sitio web para desarrolladores de Apple, que ha incluido nuevos tutoriales paso a paso para aprender el lenguaje Swift, y la creación aplicaciones con SwiftUI desde cero. Están construidos con la librería DocC que permite generar documentación y publicarla en un sitio web con una simple exportación. Recomendamos echar un vistazo, tanto a los tutoriales como a la librería. De propina os dejamos uno de los tutoriales para cachear datos de red.
Aunque Swift y muchas de las librerías son open-source, el apoyo de las empresas es fundamental para el desarrollo de estos proyectos. Hace unas semanas, se anunciaba que Apple volvía a patrocinar la Server Swift Conference. Se confirma así la apuesta de los de California por esta comunidad y el uso del lenguaje más allá de sus plataformas dando un apoyo continuo al desarrollo de lado servidor.
Puede que las conexiones de red y el acceso a los servicios web sea una de las características que más aplicaciones implementen. Recibir y enviar información desde y hacia un servidor, permite que el contenido de nuestra aplicación sea más dinámico y mantiene a los usuarios conectados. Si nunca hasta ahora has desarrollado fuera de los sistemas de Apple, URLSession habrá sido tu aliado. Pero también existe otra librería llamada AsyncHTTPClient, que permite crear un cliente HTTP en Swift. Te dejamos este artículo donde cuentan como utilizarla, y porqué puede ser más conveniente en ciertas aplicaciones.
Seguimos de lado servidor con un sospechoso habitual, esta vez el genial Paul Hudson que nos ha sorprendido con una librería para crear páginas web estáticas llamada Ignite. Pese a que ya existían otras como Plot, en esta ocasión la sintaxis es muy parecida a SwiftUI, lo que reduce la barrera de entrada para desarrolladores que ya conozcan el framework. ¡Ya no hay excusa para no crear webs usando Swift!
No es lo que imaginas. Desde que se liberó el código de Swift y pasó a ser un proyecto de software libre, ya se contaba con la compatibilidad de Linux. Esto permitía hacer aplicaciones para este sistema pero en modo terminal. Sólo los framework SwiftUI, UIKit, y AppKit permiten construir aplicaciones gráficas pero siempre dentro de los sistemas de Apple. En una publicación del blog de Swift nos presentaban a Adwaita, una librería de construcción de aplicaciones con interfaz de usuario para distribuciones Linux con escrito GNOME. Webs, aplicaciones de Linux… ¡Swift lo puede todo! Esta es un wrapper de la librería libadwaita, en C++, pero con una capa de abstracción que se parece mucho a SwiftUI.
Hacemos un doble mortal para hablaros de la dificultad de no dar soporte a versiones anteriores de los sistemas y poder así adoptar las últimas novedades. Si hablamos de novedades, una a la que no se le ha dado su debida importancia es nuevo patrón Observation. Nos hemos topado con esta pieza sobre cómo este patrón y uno de los framework construidos sobre él, SwiftData, suponen un cambio profundo en la forma de construir aplicaciones. Pese a las bondades de SwiftUI y CoreData había problemas inherentes a las capacidades del lenguaje que han quedado solucionadas con el uso de las macros y el paradigma de observación.
En esta edición os traemos una serie de artículos sobre el framework para la creación de aplicaciones para dispositivos y sistemas de Apple. Aunque seguramente veamos cambios y mejoras en la WWDC, la versión actual el capaz de hacer mucho y muy bien. Toda una app completa, desde 0 y al 99% libre de UIKit.
Para el aperitivo, cortesía de la casa, una pareja de lujo: crea tu propio patrón Trigger usado por algunas APIs del propio framework, y un botón asíncrono con cancelación de tareas. Como entrante tenemos un artículo con una serie de consejos para evitar el contenedor AnyView. No nos van a meter en la cárcel si lo usamos, pero para el funcionamiento interno de SwiftUI, hay una penalización en el rendimiento.
De primero os traemos una de teclas. La API para detección de teclas es bastante sencilla y completa pero esconde algunas sombras con las que debemos tener cuidado. Como plato principal proponemos algo más contundente. Esta pieza nos explica cómo funcionan los contenedores dinámicos, así como los posibles problemas a los que nos enfrentamos y algunos trucos para solucionarlos.
La sección cafetera está dedicada a nuestro querido nuevo modelo de concurrencia y asincronía en general y a la forma en la que gestiona los hilos y la protección de acceso a variables en particular. Antes de nada, vamos a refrescar cómo funciona la concurrencia estructurada con varios detalles, y una comparación con el ahora vetusto Grand Central Dispatch, que aunque es parte de Swift, no puede evitar deberle mucho a estar concebida como una API en C que resulta poco “swifty”.
Conectando con la sección anterior tenemos esta pieza dedicada a cómo usan el MainActor las vistas de SwiftUI. Y otro artículo muy curioso que intenta arrojar sobre dónde se ejecutan las funciones concurrentes. Lectura 100% recomendada porque aunque la intención de la API es abstraernos de hilos y colas, podemos tener comportamientos inesperados si no tenemos claros algunos conceptos.
Por último traemos dos artículos para proteger el acceso a recursos compartidos. Una pieza pone foco en cómo funciona el aislamiento en Swift y otra entrada en cómo compartir el estado.
Huele a WWDC y pronto os informaremos con más detalle del seguimiento que realizaremos del mismo. Mientras tanto, muchas gracias como siempre por el tiempo que dedicas a leernos. Por cierto: a partir de ahora tendrás la newsletter en tu email, Jobs mediante, los lunes en vez de los miércoles. Los comentarios y el feedback son más que bienvenidos, puedes hacerlo en nuestros canales habituales: correo electrónico [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Ya os veníamos avisando en ediciones anteriores que la DMA, o Ley de Mercados Digitales, de la Unión Europa iba a traer cola. Se han anunciado nuevos cambios en la distribución de aplicaciones para iOS que realizan los de Cupertino. Lo más importante, y la novedad en este caso, es la nueva forma de distribución mediante una página web. Ya no hace falta adherirse a una tienda de aplicaciones de terceros, pero algunas de las condiciones pasan por tener una aplicación con más de un millón de instalaciones en el último año. En resumidas cuentas, que no será una selva, y que se necesita la aprobación y notarización de la propia Apple. ¡Ah! Y por supuesto, no está exentas del Core Technology Fee.
No hay confirmación oficial, pero el anuncio repentino parece estar motivado por las voces discordantes acerca del cumplimiento de la nueva ley, pues no parecían suficientes los cambios anunciados anteriormente. La multa puede ser muy alta y la compañía ha preferido poner ya la venda, ante la gravedad de la posible herida. No sabemos si este será el último cambio, pero lo que si esperamos es seguir aquí para contároslo.
Los de la manzana han publicado una nueva edición de su suerte de newsletter mensual a modo de carta abierta a los desarrolladores. En ella aglutinan noticias y novedades, así como algunos artículos destacados sobre las herramientas y frameworks de creación de software para sus plataformas. Pese a que sólo referencia contenido de la propia empresa, es un must para mantenerse al día y para descubrir algún que otro truco o documentación que a lo mejor no teníamos en nuestro arsenal.
Si sois lectores habituales, ya sabréis que vamos por la versión 5.10 del lenguaje Swift. Es cierto que ya no hicimos eco de la noticia en la pasada edición, pero es más cierto aún que el compañero Donny Walls ha preparado una recopilación de los cambios más importantes que es canela fina.
Una característica de las última versiones de Swift que aún no hemos tocado son los paquetes de parámetros. Entre las mejoras más plausibles están la mejora en la implementación de vistas compuestas de SwiftUI como VStack y HStack, cuyo inicializador era distinto por cada número de parámetros que puede soportar, con un máximo de 10. Con esta característica se dotaba al lenguaje de sintaxis para crear este tipo de implementaciones mediante lógica. Para mejorar la implementación y soportar más casos de usos, Swift 6 prepara un cambio en cómo se construye esta característica del lenguaje. Sus desarrolladores nos cuentan los detalles en el blog de Swift.
Ciertamente pecamos muchas veces de meternos demasiado en harina, así que hoy dedicamos una de las piezas a una característica básica y que define el lenguaje: los tipos opcionales. Desde SwiftLee nos muestran 5 cosas que deberíamos saber sobre ese misterioso interrogante que plaga nuestros códigos.
En el mismo blog nos encontramos otro artículo pero esta vez sobre algo muy distinto, el Test-Driven Development, o es cristiano, el desarrollo orientado a pruebas. Empezando por explicarnos que el primer paso del TDD es crear un test que falle, y luego crear el código para que éste se ejecute con éxito. Y concluyendo que no es todo blanco o negro, y que una buena estrategia es utilizarlo donde realmente suponga una ventaja, como en la resolución de bugs.
Al hilo de la resolución de errores, veamos una forma muy útil para depurar el trabajo con bases de datos. Cómo no, en el mundo Swift y Apple estamos hablando de nuestra querida, y a veces también odiada, librería CoreData. Os dejamos un estupendo artículo de AsynLearn sobre cómo visualizar la base de datos de nuestra aplicación cuando está instalada en uno de los simuladores de Xcode. Spoiler: una vez localizado, no es más que un archivo SQLite.
Pese a que siempre me chirría castellanizar el término, qué juego dan los actores (el tipo actor). Parece magia que nuestro código asíncrono además de no bloqueante, sea seguro pero ojo, podemos bloquear el hilo principal en SwiftUI si no tenemos cuidado. Recordad que un gran poder, conlleva una gran responsabilidad.
Por un lado tenemos el MainActor, que asegura la ejecución en el hilo principal, y por ende la actualización de la interfaz. Pero por otro, también podemos crear actores globales para aislar y proteger la ejecución de nuestros tipos. En esta pieza tenemos una basta explicación y algún que otro ejemplo de cómo implementarlo.
Todas la aplicaciones, aunque no seas consciente de ello, utilizan variables de entorno para modificar el comportamiento en compilación y ejecución, según el sistema y la configuración sobre la que se ejecuten. Existen varias formas de uso según el lenguaje y las plataformas, pero en lo que a Swift se refiere, aquí tienes las formas más extendidas de gestionar este tipo de datos dentro de tus aplicaciones.
Dos breves para terminar. La primera es la adaptación de Playdate a Swift. Se trata de una especie de motor de creación de videojuegos orientado a plataformas con muy bajos requisitos, que ha sido portado a Swift gracias al proyecto Embedded Swift.
En segundo término hablamos de la tercera versión de Speedometer, el medidor de rendimiento de los navegadores web más completo, desarrollado por el equipo de WebKit y abalado por los principales motores de renderizado web.
¿Qué prepara Apple para los nuevos sistemas con la llegada de la IA generativa? En el último programa, que ya tenéis para escuchar como podcast en Cuonda o ver cómo vídeo en Youtube.
Arturo y Julio nos cuentan que han estado haciendo desde la última vez que grabaron, hace más de un mes, y descubrimos cosas muy interesantes sobre notificaciones del kernel Darwin o el protocolo Transferable de Swift.
Luego nos comentan las noticias más destacadas como la llegada de Swift 6 y luego se remangan para meterse en faena. ¿Cómo serán las herramientas de IA generativa que Apple lanzará el próximo junio en la WWDC? ¿Qué enfoque tendrá Apple? ¿Cómo funcionan las distintas capas de IA para optimizar los resultados lo mejor posible?
Una charla cafetera sobre el futuro del desarrollo en entornos Apple a través de los próximos asistentes de IA generativa de tipo MMLLM.
Os informamos de que ya van quedado menos plazas para la nueva edición de nuestra formación intensiva Swift Developer Program. Será impartido por Arturo Rivas y el pasado jueves pudimos ver un anticipo a modo de masterclass. La formación empieza el día 1 de Abril, podéis encontrar toda la información en nuestra web. Debido a la alta demanda hemos tenido que realizar 2 convocatorias del formato para este año.
Aquí cerramos la persiana una semana más. Esperamos vuestros comentarios, preguntas, y otras hierbas y matujos en nuestros canales habituales: correo electrónico [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Creo que no hemos tenido una semana medianamente tranquila desde que comenzamos con la newsletter, y por supuesto esta no lo va a ser. La Unión Europea ya se ha pronunciado sobre el caso Spotify y Apple tendrá que pagar una multa de 1.800 millones de euros. Los de la manzana por supuesto que, no sólo han recurrido la sentencia, si no que también han lanzado una nota de prensa con un tono bastante más serio de lo acostumbrado. ¿Venganza por el gol en la implementación de la DMA? Preparen las palomitas porque nos esperan varios años con este tipo de disputas.
De vuelta en Cupertino, ellos siguen a lo suyo. Esta semana se ha lanzado la actualización del ordenador más vendido de la marca, el ligero pero matón, MacBook Air. Ahora en dos sabores, de 13 y 15 pulgadas, y un flamante M3 que hará las delicias del público general y de algún que otro profesional. Ya conocíamos el factor forma y las bondades del nuevo procesador, pero rascando en la web nos encontramos con un dato curioso: Apple deja de lado los términos Machine Learning y Aprendizaje Automático… y para mencionar por primera vez la IA.
Ya se encuentra disponible la nueva versión del IDE de desarrollo para sistemas de Apple. Más allá de la corrección de algunos errores y la compatibilidad con los SDKs de las últimas versiones de los sistemas, las novedades y cambios están en la versión de Swift que lo acompaña. Una larga entrada en el blog del proyecto subraya como principal mejora, aunque de momento opcional, un conjunto de comprobaciones de concurrencia para evitar condiciones de carrera. Además vuelven a hacer hincapié en que no habrá más versiones hasta Swift 6, y nos instan a activar dichas comprobaciones para estar preparados. La versión está disponible desde hoy para macOS, Windows, y Linux.
Continuamos con uno de los anuncios primaverales de Apple. Aunque este año las versiones .4 de los sistemas se ha adelantado debido a la DMA, ya tenemos fechas definitivas de alguno de los cambios anunciados en la WWDC de 2023. Este es el periodo de margen que suelen dar a los desarrolladores para adaptarse. Hablamos pues de la privacidad de los datos que recogen las aplicaciones. Desde el 13 de Marzo comenzarán los avisos a desarrollares que utilicen alguna de las APIs señaladas, y no hayan sido declaradas en el manifiesto de privacidad. Será a partir del 1 de Mayo que cualquier aplicación que se intente subir al Store sin cumplir esta política, será rechazada. Toca remangarse y comprobar si nuestras aplicaciones necesitan alguna modificación.
Si no has entendido el título, la siguiente noticia te lo puede aclarar. Y es que el framework para Swift de lado servidor por excelencia, conocido como Vapor, ha publicado una actualización en su blog. En ella nos anuncian que el paquete JWTKit para trabajo con los JSON Web-Token ha alcanzado la versión 5. Los cambios son bastante notables porque, en aras de adaptarse a Swift 6, se han eliminado dependencias de librerías que usaban lenguaje C. Esto, además de incrementar la seguridad de la que dicho lenguaje carece, preparan los tipos para ser seguros en acceso asíncrono y mejorar la API haciéndola más Swifty.
Durante los últimos días nos hemos encontrado con un aluvión de artículos sobre creación y adaptación de aplicaciones a visionOS. Desde desarrolladores que cuentan en profundidad, y en vídeo, cómo migraron una app en SwiftUI a visionOS en apenas 2 horas, hasta los que van más allá al insertar modelos 3D en sus desarrollos. Estamos totalmente de acuerdo en que Apple ha puesto muchos esfuerzos en hacer de SwiftUI el framework de desarrollo de primer nivel para visionOS. Aunque ojo, conviene revisar los fondos y la posición de las ventanas para este nuevo interfaz.
La última de las piezas sobre esta temática nos lleva a una reflexión. La nueva vista de ornaments es una de las nuevas características de la interfaz más notables. Tanto la implementación como su resultado, están cuidados al detalle para convertirse en uno de los elementos clave. Pues bien, ya os adelantábamos hace unas semanas, que quizás visionOS sea la piedra de toque para unificar interfaces. La similitud de la barra de reproducción de Música (y de Podcast en la última versión de iOS), con este nuevo elemento, nos hace tenerlo un poco más claro. Hasta aquí nuestra predicción: ¡tiembla Mark Gurman!
Una de las fortalezas de SwiftUI es que combinaba el propio framework reactivo de diseño de interfaces con otra pieza clave de software conocida como Combine. La cuestión está en que luego llegó el nuevo modelo de concurrencia y asincronía y el uso de este último quedó relegado, precisamente, a esas ocasiones donde necesitamos reactividad. ¿Qué hizo Apple? Unir los puntos. Mediante las AsyncSequence nos permiten crear una suerte de pipelines para observar cambios, pero se perdía el control del flujo. ¿Qué hizo Apple? Unir de nuevo los puntos, pero esta vez liberando la librería Swift Async Algorithms, que ya hemos mencionado alguna vez, pero hoy te traemos un estupendo artículo con casos de uso.
Continuamos con uno de esos campos de la programación donde normalmente sólo te adentras cuando surge algún problema. Pongamos el caso de que tienes un proyecto grande, en el que el tiempo de compilación se te ha ido de las manos. O peor aún, has pasado horas montando un sistema de integración continua y ves que los costes se disparan porque el tiempo de construcción se alarga en el tiempo. Esta pieza nos da pistas sobre cómo, utilizando modularización y una correcta gestión de dependencias, podemos minimizar estos tiempos.
Siempre nos hemos mostrado reacios a utilizar librerías de terceros, pero en el caso de librerías para crear llamadas de red, directamente estamos en contra. URLSession tiene todo lo que un desarrollador necesita, es altamente personalizable, permite crear tipos de dominio sobre ella y algo que mucha gente no sabe: es perfectamente testable. Si señorito, es súper sencillo crear mocks sin tener que recurrir a un protocolo específico ni hechizos semejantes. El amigo Vincent Pradeilles nos cuenta cómo hacerlo en este fantástico artículo.
Y cerramos edición, cómo no, con un artículo muy cafetero. En párrafos anteriores, ya os contamos cómo async/wait introdujo la figura de los actor. De todos es sabido, y si no ahora ya lo sabes, que frente a la virtud de la asincronía está el pecado de las condiciones de carrera. Al crear procesos en paralelo, puede producirse la escritura de una variable a la vez que otra lectura o escritura, provocando un comportamiento inesperado del código. Seguro que te has preguntado alguna vez sobre magia detrás de este aislamiento de los actores. Pues deja de preguntártelo y descubre la verdad.
Recordad que tenemos en marcha nueva edición de nuestra formación intensiva Swift Developer Program, que impartirá nuestro compañero Arturo Rivas y que será vuestra puerta de entrada al desarrollo en Swift, SwiftUI y uso de red. Y que cerrará con una masterclass de desarrollo en Apple Vision Pro. Echadle un ojo a la información en nuestra web pues empezamos el 1 de abril. La primera ocasión en que convocamos 2 formaciones en un año, dada la alta demanda de esta formación intensiva.
Cerramos otra nueva edición que esperamos sea de vuestro agrado. Haznos saber lo que te gusta, y lo que no, en nuestros canales habituales: correo electrónico [email protected] y la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Esta semana no pasará a la historia, al menos a la que a esta newsletter atañe, por haber sido generosa en noticias y contenido. Pero conviene recordar que estamos a las puertas de la entrada en vigor de la Ley de Mercados Digitales, y la puesta por tanto en producción, de los cambios que Apple ha realizado para iOS 17.4. Después de varias betas y con el 6 marzo como fecha límite no se esperan cambios significativos.
Lo que si va a suponer un cambio significativo es la versión 6 de Swift. Aún hay varias características en discusión, y otras varias por cerrar a nivel implementación, pero ya tenemos el roadmap a seguir por parte del equipo al cargo. El proceso de lanzamiento comenzará el 15 de Marzo con la creación de la rama de desarrollo en el repositorio. Esta contendrá los cambios a implementar en la versión 6.0 y serán incluidos mediante proceso de pull request tras su discusión en el foro de evolución de Swift. Todo apunta a que incluirá novedades como la comprobación estricta de concurrencia, aunque no es seguro que se implementen otras características como un modelo de memoria que remplace a ARC.
Veremos como se desarrolla el proceso, pero lo más seguro es que veamos ya charlas en la WWDC de este mes de Junio y que la versión final se libere en Septiembre, junto con la llegada de nuevas versiones de los sistemas operativos de Apple. En el hemisferio norte aún es invierno pero ya avistamos un verano movidito para los desarrolladores.
Uno de los mejores frameworks para desarrollo de aplicaciones de lado servidor, y un férreo competidor de Vapor, anuncia su segunda versión y viene cargada de novedades. Hummingbird es una herramienta de desarrollo en lenguaje Swift para aplicaciones de servidor HTTP. Nació con el foco en la simplicidad para aquellos desarrolladores que no quisieran complicaciones. Entre las novedades principales se encuentran la migración prácticamente completa al nuevo modelo de asincronía y concurrencia async/await, o la adopción de la versión 2 de la librería para dar servicio al ciclo de vida de aplicaciones Swift. También hacen uso de la recién liberada librería de tipos HTTP de Apple, implementan los Jobs mediante TaskGroup y han fusionado la librería Core con la rama principal a la espera de la aparición de la nueva implementación de Foundation, modular y reescrita en Swift.
Sin duda una noticia estupenda, hayas o no desarrollado aplicaciones de lado servidor previamente. Si algún día lo necesitas o si utilizas alternativas como Vapor, no está de más darle una oportunidad. Incluso si ya has hecho tu pinitos, lánzate a la adopción de la nueva versión porque supone sin duda un salto en cuanto a simplicidad y robustez.
Otro de los anuncios importantes de la semana, ha sido la inclusión del estándar PQ3 de cifrado para iMessage. Empezando desde iOS 17.4 y equivalentes, Apple migrará a este nuevo sistema de cifrado todas las conversaciones en las que se pueda aplicar. Esto quiere decir, aquellas cuyos integrantes tengas instaladas estas versiones, o una mayor, en todos sus dispositivos. ¿Qué aporta esta nueva tecnología? Seguridad frente a los temidos procesadores cuánticos que están por venir. La velocidad de proceso que podrían alcanzar, pone en tela de juicio muchos de los sistema de encriptación de datos actuales. El problema es que podrían generar secuencias de claves tan rápido que comprometerían el cifrado por una suerte de ataque de fuerza bruta.
El artículo del blog de Apple entra en detalle sobre los distintos niveles de encriptación y qué algoritmos añade cada uno de ellos. Tenemos el más básico de clave única, luego estaría el punto a punto (donde cada uno tiene su llave) y por encima de estos, tendríamos a Signal Protocol. Este añade una capa más de seguridad al establecer tanto sesiones como rotación de claves, e incluso aleatorización en puntos intermedios para que, si se compromete un mensaje, no puedan leerse ni los anteriores, ni los siguientes. En la actualidad, las empresas que presumen de cifrado punto a punto, utilizan principalmente Signal o alguna variante. Apple quiere ir un paso más allá añadiendo nuevas rotaciones dentro de la cadena de cifrado para hacerla aún más robusta.
Ya hemos hablado de los iconos y de cómo mejorar la presencia de nuestras aplicaciones en al App Store. Pero una vez que el usuario se ha descargado el software, es muy probable que lo primero que vea sea el mítico onboarding. Este puede consistir en una o varias pantallas que presentan ya no sólo la aplicación, si no en muchas ocasiones además, un pequeño tutorial sobre cómo usarla. Os traemos esta pieza de Javier Torné donde nos muestra las claves y la importancia de que el usuario empiece a su usar nuestra aplicación con bien pie.
Continuando con la obra y milagros de SwiftUI, hoy tenemos un artículo sobre lo fácil que es trabajar con los puntos de interés en los mapas. Podemos decidir cuáles mostramos, gestionar la selección, personalizar cómo se muestran… y todo con una API muy sencilla. Ninguna edición de esta newsletter sin mostraros todo de lo que SwiftUI es capaz.
Una de las características más celebradas de Swift son las extensiones. La programación orientada a protocolos no serían ni de lejos tan potente sin el uso de las mismas. Nos permiten dos cosas: extender (valga la redundancia) la funcionalidad de tipos importados de otros módulos, pero también implementar un comportamiento por defecto para métodos de los protocolos. Es una especie de herencia basada en la composición, es decir, aportando funcionalidad modular en lugar de jerárquica. Tanto si dominas las extensiones como si has desconectado hace un par de frases, te recomendamos echar un ojo a esta pieza.
Y aquí están nuestras amigas las librerías de terceros. Me ahorraré los juicios de valor para ir directo al grano: os traemos una forma de mantenerlas a raya. El truco consiste en dos fases. La primera es encapsular el código dentro de entidades propias. Así evitamos hacer un import en cada fichero que lo necesite. Y la segunda es generalizar sus tipos. Con una suerte de traducción a tipos de dominio, lograremos una interfaz desacoplada, de forma que podamos sustituir dicha librería en el futuro sin cambiar el contrato de nuestras API.
Cerramos no sin antes dejar constancia que Tim Cook comentó el otro día en una reunión de accionistas, que las próximas versiones de los sistemas de Apple “abrirán nuevos caminos” en cuanto a IA generativa.
Por nuestra parte, abrimos desde ya nuevos caminos, pues el 1 de marzo se lanza una nueva edición de nuestra formación intensiva Swift Developer Program, que impartirá nuestro compañero Arturo Rivas y que será vuestra puerta de entrada al desarrollo en Swift, SwiftUI y uso de red. Y que cerrará con una masterclass de desarrollo en Apple Vision Pro. Echadle un ojo a la información en nuestra web pues empezamos el 1 de abril. La primera ocasión en que convocamos 2 formaciones en un año, dada la alta demanda de esta formación intensiva.
Hemos empezado sin muchas pretensiones pero creo que ha quedado un edición bastante redonda. ¿Opinas lo mismo? Esperamos que si porque no queremos perder el honor del tiempo que dedicas a leernos. Si quieres contactar con nosotros puedes hacerlo en nuestro correo [email protected] o en la cuenta de X @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Bienvenidos una semana más a esta nuestra newsletter. Lo primero: la frase del título NO pertenece al Quijote. Y lo segundo: sí amigos, hoy también tenemos ración y media de Apple Vision Pro. Sin duda la noticia más destacada sobre el nuevo visor, o como queramos llamarle, de la marca de la manzana, ha venido de la mano de uno de sus competidores. El CEO de Meta, que además de Facebook e Instagram, tiene otros productos como el visor Meta Quest, ha publicado una rajada monumental en sus redes sobre el nuevo producto de Apple.
No estamos aquí para hablar si este tipo de declaraciones, en forma y modo, vertidas por el mismísimo CEO de una compañía es el nuevo modelo de relaciones públicas pero sí que nos interesa el calado que pueda tener en el mundo tecnológico. Sobre todo, porque a nuestros ojos, tiene unas cuantas incorrecciones como llamar plataforma abierta a Meta y cerrado a Vision Pro. Cuando precisamente su tienda es cerrada y de la Apple abierta. Es bastante irónico.

Uniendo este punto con el evento sobre Computación Espacial que compartimos con Spatial Voyagers me he dado cuenta del significado de la propuesta de las Vision Pro. Además de para confirmar que Edu, Edgar y Jota son una gente espectacular y que sabe un montón sobre realidad mixta, aumentada y virtual , ese día comprendí que es normal que Mark Zuckerberg tenga miedo. No se trata de un montón de fanboys de Apple flipados con un nuevo producto, si no que realmente es el producto que el sector lleva esperando más de 10 años.
Después de tomar unas cervezas y comernos una hamburguesa, bastante buena por cierto, hablamos no sólo del casco en sí, también de lo que supone dentro del ecosistema de desarrollo Apple. Muchos de nosotros, y yo el primero, nos vemos con ganas de entrar en el mundo 3D sin ese miedo a lo desconocido. No es sólo el producto, si no que con las herramientas que Apple ha puesto a nuestra disposición, nos hacen sentir como en casa. ¡Esto se pone emocionante amigos!
Si quieres ver la charla, donde también estuvo nuestro compañero Julio César Fernández, hablando sobre las posibilidades de desarrollo de Vision Pro, aquí tienes el enlace en Youtube. Y por cierto, si llegáis a tiempo, Julio dará un taller durante dos días en la Universidad Europea de Madrid sobre cómo construir una app en Swift para entornos Apple, incluyendo Apple Vision Pro. Podéis apuntaros aquí.
Enlazando con la premisa de “sentirse como en casa”, también os traemos un nuevo editor de código llamado CodeEdit. No es uno más, si no que este trata de imitar a nuestro querido Xcode y servir de base para proyectos no destinados a plataformas de Apple. 100% nativo para macOS, integración con Git, una interfaz exquisita… al instalarlo me he quedado sin palabras. Y es aún una versión alpha. Esperemos que la iniciativa tenga tracción y llegue pronto a su versión estable. Si también te mueres de ganas por hacerlo tu editor de referencia puedes incluso ayudarles a lograrlo porque es open source.
Aunque este no ha sido el único lanzamiento innovador de esta semana. Os traemos otra propuesta, que pretende en este caso mejorar el anteriormente comentado sistema Git para repositorios de código. Su nombre es GitButler y aboga por crear ramas virtuales que cuando estemos trabajando en algo nuevo o aislado, pero detectamos un error o una pequeña mejora a incorporar en la rama principal, no tengamos que guardar los cambios, cambiar de rama, volver a la anterior… si no que lo hagamos en esta rama virtual. ¿Suena bien verdad? Pues no sólo eso, gracias a uso de IA, también escribe el mensaje de los commit automáticamente en base a los cambios que detecte. Disclaimer: de momento no se lleva muy bien con Xcode y puede destrozarte las ramas de tu proyecto, usar con cuidado.
Ya en otras ocasiones que la futura versión mayor de Swift tendrá cambios de bastante calado. Uno de los principios básicos desde la creación del lenguaje, fue centrarse en la detección de errores en tiempo de compilación. O lo que es lo mismo, tratar de eliminar en el medida de lo posible la incertidumbre de que aparezcan errores que provoquen que la app se cierre repentinamente. Swift 6 quiere ir un paso más allá detectando no sólo errores de tipos, nulos y otros sospechosos habituales, si no también advirtiendo de problemas de concurrencia. Estos pueden crear las temidas condiciones de carrera. Existe un flag de configuración para poder activarlo y probar tu código en las versiones actuales, pero no siempre parece ser una buena idea.
Hablemos ahora de librerías. Normalmente somos reacios a la utilización de ellas sin una causa justificada. Añadir una dependencia para hacer lo mismo que otra API del sistema no me parece algo que aporte nada a nuestro proyecto, más allá de complejidad, tanto en el código como en su mantenimiento. Pero librerías buenas haylas. En esta pieza tenemos una introducción a Swift Algorithms, un paquete de la propia Apple que nos facilita enormemente el trabajo con secuencias y colecciones. Además puede ver todos los detalles de la misma en GitHub así como su amplia documentación. Si necesitas descomponer un array por una de sus propiedades, o crear agrupaciones de distinta naturaleza en base a sus componentes, estás a un import Algorithms de poder hacerlo.
Una de las características que muchos desconocen de los sistemas de Apple, son las fuentes de tamaño dinámico. Me explico, hay una opción dentro de los Ajustes que permite configurar el tamaño de la fuente a través de todo el sistema y que, si hacemos bien las cosas, nuestra app puede detectar y adaptarse. En UIKit era necesario activarlo, pero con SwiftUI la activación viene por defecto. Esto hace que las fuentes se escalen de acuerdo con la configuración del usuario, y que personas con problemas visuales, sean capaces de leer textos utilizando una fuente de un tamaño mayor. Pero esto no acaba aquí, porque en SwiftUI existe el property wrapper @ScaledMetric que nos permite escalar también imágenes, márgenes y otros componentes, de formar proporcional a las fuentes.
No os voy a engañar: antes de iOS 14 el log de Apple era una auténtica pesadilla. Había varias APIs que no se hablaban entre ellas y el desarrollador acababa por utilizar prints y a correr. Hasta que apareció el logging unificado que utilizaba un sólo framework para unirlos a todos. Desde entonces es posible no sólo ver las anotaciones en la consola de Xcode, si no también en la consola de log del propio dispositivo. Posteriormente, en iOS 15 añadieron la posibilidad de consultarlo mediante código por lo que se puede filtrar por nuestro interés y generar un archivo que el usuario nos envíe como feedback o que mostremos en algún menú de depuración dentro de la app. También es posible formatear los datos, ocultarlos cuando sean privados… y por supuesto, con Xcode 15 el log da gloria verlo categorizado y con los metadatos pertinentes. Incluso podemos pulsarlo para que nos lleve al código que lo ha generado. ¡Ya estás tardando en incorporarlo a tu flujo de trabajo!
¡Paren las rotativas! Con la edición casi cerrada no podemos no hacernos eco de la nueva librería para Swift presentada por Apple. Se trata de una API para MLX. Si se te acaban de dar vuelta los ojos, tranquilo. MLX es un framework diseñado para trabajar el machine learning sobre los procesadores Apple Silicon. En esta entrada del blog de Swift, no sólo nos introducen esta nueva librería, si no que también nos hablan de los planes presentes y futuros, así como el porqué de usar Swift como lenguaje de investigación para machine learning. Spoiler: la facilidad de uso como lenguaje de alto nivel y el rendimiento al ser compilado es la dupla perfecta para este tipo de trabajos. Amigos, ahora si que tenemos el poder.
En esta edición nos hemos centrado más en el propio lenguaje y las herramientas de desarrollo que en las noticias (exceptuando la última sección claro). Esperamos que haya sido igualmente interesante. Nos lo puedes hacer saber escribiendo a nuestro correo [email protected] o a través de nuestra cuenta en X como @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>Las reviews, ya más reposadas, del Vision Pro han comenzado ha llegar. También lo ha hecho el unboxing con la producción más épica ever. Pero por fin hemos comprendido que el nuevo casco, perdón por banalizar así su nombre, de Apple, es entre otras cosas unos auriculares para video. Os prometo que con esto me ha explotado la cabeza, porque es verdad.
Los primeros auriculares tenían no tenía gran calidad de sonido, en cambio, tenía un cable que se enredaba con absolutamente todo lo que se le ponía a tiro y eran demasiado grandes e incómodos. Hasta que llegaron los AirPods. De repente pasamos a tener un dispositivo que nos permitía escuchar, y a la vez interactuar mediante la voz, de una forma en la que el dispositivo pasaba totalmente inadvertido para el que lo llevaba puesto. Y eso es será el Vision Pro al vídeo.
Además, podrás ver e interactuar con pantallas de información y con el propio entorno físico, mediante un dispositivo que no tengas que sostener en la mano, y cuya pantalla es prácticamente infinita. ¿Smarphone? ¡A dónde vamos no necesitamos … smartphone!
Si quereis saber más sobre Vision Pro basada en la experiencia que hemos tenido y descubrir el lado “más espiritual” de Julio César Fernández, os invitamos a ver (que no escuchar) su último Apple Coding Daily en nuestro canal de Youtube. Porque ahí os contará todo lo que es y no es Vision Pro a día de hoy, pero lo hará en Persona. Podéis verlo aquí mismo.
Enlazando con las Vision Pro, el sistema que lo gobierna, visionOS, ha supuesto todo un reto a la hora del diseño de interfaces. El juego de transparencias para hacer que las ventanas se integren con el fondo (ya sea real o virtual) mediante distintas capas, es una obra digna de los mejores orfebres de Cupertino. En 9to5mac se hacían eco esta semana, de un posible rediseño para las futuras versiones de los demás sistemas operativos de Apple. Quizás sea el momento de la unificación total, porque visionOS tiene un poco de experiencia de escritorio y también de tablet. A lo mejor los de la manzana han encontrado el anillo único para unirlos a todos.
Como no podía ser menos, para Apple, la privacidad es fundamental y podemos descubrir cómo un dispositivo, que por sus cámaras y sensores podría parecer que es una herramienta de espionaje en sí mismo, sin embargo, tiene un buen número de medidas para proteger nuestra privacidad, incluso de los desarrolladores poco éticos que quisieran sacar provecho del mismo. Tenéis un extenso informe en un PDF para leerlo publicado por la propia Apple en este enlace.
Siguiendo con las noticias, Apple ha publicado la fecha en la que las aplicaciones que se suban al App Store, deben utilizar las últimas tecnologías liberadas el pasado otoño. A saber: Xcode 15 para iOS 17, iPadOS 17, tvOS 17, y watchOS 10. Y el día elegido es el 29 de Abril. A partir de esa fecha, cualquier actualización o nueva aplicación que no se haya construido con esas versiones de Xcode y de los SDK, será rechazada automáticamente.
De todos es sabido que la investigación y el desarrollo de modelos de lenguaje para Machine Learning viene muy ligado al mundo científico. En el gremio, la reputación de los investigadores está basada en el número de publicaciones científicas en las que participan. Aunque otra forma de dar a conocer el trabajo es hacer públicos los modelos generados y los papers de investigación. Si Apple ya jugaba a este juego desde hace años, ahora ha entrado de lleno con lanzamientos casi semanales. Esta vez con el modelo MGIE, que permite la edición de imágenes utilizando comandos de texto mediante lenguaje natural. Y también Keyframer, un modelo que permite animar gráficos vectoriales SVG mediante modelos de lenguaje.
El hype de cara a la WWDC está servido. Si queréis estar al día de todo lo que Apple presenta en el campo de la IA generativa, no dejéis de vigilar la web de Machine Learning de la compañía en machinelearning.apple.com.
Otra novedad pequeña, pero no por ello menos importante, es la liberación de la versión 1.1.0 del paquete Swift Collections. Desde sus primeras iteraciones, fue concebido para facilitar el trabajo con estructuras de datos y en esta última release, además de nuevas estructuras, ha añadido funciones para el filtrado y la ordenación. ¿Lo has utilizado? ¡Te leemos!
Por si no fuese poco el troleo de Apple a la UE con los cambios para cumplir con la Ley de Mercados Digitales, WhatsApp también lo ha hecho de forma ostensible. Otras aplicaciones, como la propia iMessage de Apple, han optado por adoptar el servicio RCS como forma de interoperabilidad. Pero la subsidiaria de Meta ha anunciado que implementará una suerte de API para integrarse con sus sistema de forma que se siga respetando el cifrado extremo a extremo del protocolo Signal.
Esto que a priori parece un movimiento en pos de los usuarios, está muy lejos de serlo. Me explico. Implementando una plataforma de terceros, como RCS, WhatsApp sólo vería el tráfico que sus usuarios lanzan hacia ese servicio cuando se comunique, siguiendo con el ejemplo, con iMessage. Pero si utilizan una API, y por tanto una plataforma propia, los de Meta tendrían acceso a los metadatos completos de todas la conversaciones. Una jugada maestra por su parte, sin duda alguna.
Aunque ojo al dato, Apple ha conseguido convencer a la UE que el uso de iMessage en Europa es tan residual, que finalmente no tendrá que implementar otras apps en conversaciones de terceros como sí tendrá que hacer WhatsApp. Así que la integración de RCS, estará, pero seguirá permitiendo que iMessage funcione como hasta ahora.
Lo sé, he ido a lo fácil. Y hablando de fácil (lo he vuelto a hacer…), iOS 17 con el nuevo patrón Observable, ha simplificado la sintaxis para obtener reactivadad en SwiftUI. Pero lo realmente importante está bajó el capó, porque la mejora de rendimiento es muy grande. Esta pieza de Donny Wals nos muestra cómo hacer saltar desde el vetusto ObservableObject, y algunas consideraciones como que ya no es necesario el framework Combine.
Si has llegado hasta aquí ahora viene el lío. El artículo cafetero es obra del compañero Antoine van der Lee y trata sobre todos los any que implementa el lenguaje Swift. El trío calavera AnyObject, Any y any al desnudo para rematar una edición más de nuestra newsletter.
Se acercan las versiones .4 de primavera, este año movidas por la irrupción de la Ley de Mercados Digitales y el Vision Pro, así que no hay tregua. Si lo que lees te gusta o piensas que podemos mejorar algo puedes contactarnos en [email protected] o a través de nuestra cuenta en X como @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>La semana pasada se puso por fin a la venta el Apple Vision Pro. Sólo en EEUU, pero gente llegada de todas las partes del mundo, acudió a las Apple Store del país de las barras y estrellas para hacerse con uno. Sí, también en Apple Coding Academy, donde ya tenemos formaciones para empresas y apps que saldrán muy pronto.
Ya tenemos reviews y vídeos de todo tipo, como el unboxing en el canal de Clipset en Youtube, donde hemos colaborado con ellos para cederles nuestro dispositivo para probarlo y que hicieran vídeo. Podéis verlo pulsando aquí.
No obstante, huelga decir que no tardaron en acudir a la llamada compradores sin muchas luces, que lo utilizaron mientras conducían un vehículo, o realizaban una actividad para la que Vision Pro no sólo no habían sido diseñadas, si no que ponían en peligro su vida. Y lo que es peor, la de los demás.
Respecto al resumen de las primeras impresiones: obviando las limitaciones de tamaño, peso, ergonomía y autonomía, los de Cupertino han conseguido la experiencia realmente inmersiva, creando así el estándar de calidad de facto.
La tecnología acaba de salir y sabemos que llegar el primero tiene sus ventajas, porque de momento no hemos visto la killer app para visionOS. Si la killer feature que es tener una sala de cine para ti solo, pero aun quedan muchas apps por poblar el App Store de visionOS.
Nuestro querido Paul Hudson se ha hecho con unas el día del lanzamiento, pero también ha revelado que acudió en más de una ocasión a los laboratorios de Apple para probar una aplicación en la que estaba trabajando. Lo malo, que nos da envidia, lo bueno, que nos cuenta con pelos y señales cómo ha sido el desarrollo de su app.
De la mano de Julio César Fernández, nosotros hicimos una masterclass de desarrollo en visionOS que tenéis de forma totalmente gratuita en Youtube, en nuestro canal de Apple Coding (el cual, por cierto, os invitamos a suscribiros porque también emitimos ahí nuestros directos y la grabación del podcast Caffè Swift). Si queréis ver la masterclass, solo tenéis que pulsar aquí.
Y si ya tienes una aplicación para sistemas de Apple y quieres adaptarla al lenguaje de diseño de visionOS, te recomendamos que empieces por los nuevos elementos disponibles: los ornaments.
Desde el comunicado de prensa en el que Apple anunciaba las nuevas medidas de iOS para cumplir con la ley de mercados digitales, el debate que inundaba la redes estaba lleno de dudas. Y no sólo sobre si realmente se cumple la ley, si no sobre las propias medidas. A
Aunque la documentación es bastante extensa, el lenguaje empleado tiende a la ambigüedad y no termina de dejar del todo claras algunas casuísticas. Tal es el desconcierto que la propia Apple permite reservar reuniones de consulta para los desarrolladores que necesiten aclarar sus dudas al respecto.
Se avecina un duro choque de trenes porque en la Unión Europea ya están encendiendo algunas antorchas pero si revisamos los artículos de la Ley parece que los abogados de Apple han hecho muy bien su trabajo.
Y por cierto, hay gente que está intentando saber cómo trasladar su cuenta de Apple ID a un país de la Unión Europea, aunque no vivan aquí, para “disfrutar” de la posibilidad de tener tiendas alternativas, otros medios de pago y demás. Curioso.
Si tenéis alguna duda, no os perdáis el directo que hicimos en Caffè Swift con nuestro amigo Marc Hervera (developer de larga experiencia) y Noelia Leiro (experta en marketing de apps y ASO), donde repasamos todas y cada una de las normas, las debatimos y explicamos. Tenéis el podcast en vídeo aquí y en audio aquí.
Si con las primeras versiones de SwiftUI algunos desarrolladores tenían sus reservas, creo que a estas alturas nadie duda, y menos Apple, de que SwiftUI es la forma más sencilla y potente de crear aplicaciones. Esta semana os traemos dos piezas que así lo atestiguan. La primera se trata de una novedad de iOS 17 que hace prácticamente magia, al añadir efectos a los elementos que entran y salen del scroll con un simple modificador.
Otra característica muy útil de las aplicaciones, es la opción de compartir cualquier tipo de contenido. Aunque a priori parezca sencillo, UIKit no lo ponía demasiado fácil. Como reza nuestro encabezado, SwiftUI viene a cambiar esto permitiendo, junto con el nuevo protocolo Transferable, compartir links de forma sencilla.
¡Tranquilos! No nos olvidamos de los más espartanos. Tenemos un breve, porque ya os hemos hablado de ello anteriormente, y es que la librería OpenAPI Generator ya tiene versión estable oficial. Aún así, en la entrada del blog de Swift.org, el artículo aprovecha para repasar lo más importante.
Y para terminar os presentamos a Pkl. Un nuevo lenguaje de configuración creado por Apple. Sí, has leído bien, Apple. ¿Y qué es eso de lenguaje de configuración? Pues el propósito de esta nueva tecnología es crear una sintaxis capaz de generar no sólo archivos de configuración JSON, XML… si no que también se pueda embeber en aplicaciones en otros lenguajes, para crear código a partir de ficheros de configuración. Es de código abierto, por cierto.
Te dejamos toda la semana para asimilarlo, nosotros estamos en ello. ¡Ah! Por supuesto, tiene su versión de Swift.
Vaya añito nos espera, acabamos de empezar Febrero y no paran de abrirse frentes en el mundo de la programación. Es una suerte estar aquí para verlo. Si tienes algo que contarnos y quieres contactar con nosotros, puedes hacerlo en [email protected] o a través de nuestra cuenta en X como @caffeswift.
Nos leemos pronto, si Jobs quiere, y hasta entonces: un saludo y Good Apple Coding.
]]>