Simon Willison señala algo que mucha gente no sabe: cuando hablás con ChatGPT por voz, no estás hablando con el modelo más capaz. Estás hablando con uno más viejo y menos potente. La interfaz más natural resulta ser la que te da el peor resultado. Es el tipo de dato que cambia cómo usás la herramienta, no cómo la admirás.Simon Willison points out something most people don't realize: when you talk to ChatGPT by voice, you're not talking to the most capable model. You're talking to an older, weaker one. The most natural interface turns out to deliver the worst results. That's the kind of detail that changes how you use the tool, not just how you admire it.
Anthropic se convirtió en el tema dominante de HumanX, la conferencia de IA de San Francisco. No porque hayan anunciado algo nuevo ese día, sino porque las empresas que construyen sobre IA están eligiendo Claude como base. Cuando los constructores votan con su stack, eso dice más que cualquier benchmark. La pregunta es si esto se traduce en números reales o sigue siendo entusiasmo de conferencia.Anthropic became the dominant topic at HumanX, San Francisco's AI conference. Not because they announced something new that day, but because companies building on AI are choosing Claude as their foundation. When builders vote with their stack, that says more than any benchmark. The question is whether this translates into real numbers or stays as conference enthusiasm.
Tres advertencias ignoradas, incluyendo una bandera de alerta de masividad levantada por el propio sistema de OpenAI. Esto no es un problema de alucinaciones ni de modelo débil: es una demanda que señala directamente los procesos de moderación y respuesta ante riesgo real. Si los hechos son como se describen, OpenAI tiene un problema serio que ningún benchmark de seguridad puede resolver.Three ignored warnings, including a mass-casualty flag raised by OpenAI's own system. This isn't a hallucination problem or a weak model issue — it's a lawsuit pointing directly at moderation processes and the response to real-world risk. If the facts are as described, OpenAI has a serious problem that no safety benchmark can fix.
OpenClaw era un cliente alternativo para Claude, y su creador fue bloqueado justo después de que Anthropic cambió la estructura de precios. Puede ser una coincidencia. Puede que no. Lo que queda claro es que construir un negocio encima de la API de un tercero es siempre una apuesta con fecha de vencimiento incierta.OpenClaw was an alternative Claude client, and its creator got blocked right after Anthropic changed its pricing structure. Could be a coincidence. Could not be. What's clear is that building a business on top of a third-party API is always a bet with an uncertain expiration date.
The New Yorker publicó un perfil extenso cuestionando la confiabilidad de Altman, y él respondió en su blog días después de que atacaron su casa. Es difícil separar el drama personal del profesional cuando sos el CEO de la empresa de IA más visible del planeta. Lo que importa de fondo: las preguntas sobre su carácter no son nuevas, y siguen sin tener respuesta clara.The New Yorker ran a long profile questioning Altman's trustworthiness, and he responded on his blog days after his home was attacked. It's hard to separate the personal drama from the professional when you're the CEO of the most visible AI company on the planet. The underlying issue: questions about his character aren't new, and still don't have a clear answer.