Logo
Clinical Standards Hub
Non-profit Community HubNot affiliated with CDISC/SASContributions WelcomeNon-profit Community HubNot affiliated with CDISC/SASContributions Welcome
Back to Insights
Technical March 12, 2026

RECIST v1.1 for Statistical Programmers

Varun Debbeti
Clinical Programmer

A Practical Guide to the Science, Data Standards, and ADaM Implementation

Deep Dive Series — CDISC Open Source Ecosystem clinstandards.org | Published: March 2026

Abstract
RECIST 1.1 (Response Evaluation Criteria in Solid Tumors) is the cornerstone of tumor response assessment in oncology clinical trials, yet its translation into ADaM programming is poorly documented. This article bridges that gap — covering the clinical science of lesion classification and response rules, the SDTM data foundation (TU, TR, RS), and the complete ADaM dataset architecture: ADRS, ADEFFSUM, ADINTEV, and ADTTE. We derive ORR, PFS, and DOR from first principles, examine censoring mechanics with scenario tables, and address investigator vs. central read concordance analysis. ADaM spec authoring guidance is woven throughout. Authoritative citations are drawn exclusively from CDISC and ICH primary sources.

Table of Contents

  1. Why RECIST Matters — And Why Programmers Must Understand the Science
  2. Lesion Classification — Target, Non-Target, and New
  3. Target Lesion Response — Rules and Derivation
  4. Non-Target Lesion Response
  5. Overall Response Per Visit — The Combination Matrix
  6. Confirmed Responses and Best Overall Response
  7. ADaM Dataset Architecture for RECIST Endpoints
  8. ADRS — Response Analysis Dataset
  9. ADINTEV — Intermediate Evaluation Metadata
  10. ADEFFSUM — Efficacy Summary Dataset
  11. ADTTE — Time-to-Event Analysis Dataset
  12. ORR, PFS, and DOR — Endpoint Derivation
  13. Censoring — Rules, Scenarios, and Programming
  14. Sensitivity Analyses
  15. Investigator vs. Central Read Concordance
  16. Writing ADaM Specs for RECIST Datasets
  17. End-to-End Worked Example — Subject 001-001
  18. Summary and Key Takeaways

References

1. Why RECIST Matters

In oncology trials, the primary efficacy endpoints — Objective Response Rate (ORR), Progression-Free Survival (PFS), Duration of Response (DOR) — all derive from a single underlying process: structured tumor measurement. RECIST 1.1 defines precisely how tumors are measured, how those measurements roll up into per-visit responses, and how those responses roll up into analysis-ready endpoints. Every rule in the criteria has a direct programming implication.

Statistical programmers who treat RECIST as a black box handed down from clinical operations will inevitably produce incorrect derivations. The criteria contain subtle logic — a 5 mm absolute increase threshold on top of the 20% relative threshold for progressive disease; the role of equivocal wording in non-target assessments; the nuanced interaction between non-evaluable (NE) and the confirmed response window. None of this is captured in a brief SAP note. This article is the reference programmers should have had.

NOTE: RECIST 1.1 was published by Eisenhauer et al. (2009) in the European Journal of Cancer and is the current regulatory standard. Earlier versions (RECIST 1.0, WHO criteria) are occasionally seen in legacy data. The principles in this article apply to RECIST 1.1 unless otherwise stated.

2. Lesion Classification

2.1 The Clinical Picture

At baseline, a radiologist (investigator or central reader) reviews imaging and classifies each identifiable lesion. The classification drives every downstream derivation. Getting lesion classification right in SDTM TU is the single most important data quality step in oncology programming.

2.2 Target Lesions (TL)

Target lesions are the measurable lesions selected to be tracked over time. The selection rules are strict:

  • Maximum 5 target lesions total across all organs
  • Maximum 2 target lesions per organ
  • Minimum 10 mm longest diameter (LD) for non-lymph node lesions (CT slice thickness must be ≤5 mm)
  • Minimum 15 mm short axis diameter for lymph nodes (pathological = ≥15 mm; normal = <10 mm short axis)
  • Lesions must be accurately measured and reproducible
  • Previously irradiated lesions may only serve as target if clear progression is documented

The sum of diameters (SoD) at baseline becomes the reference for all subsequent target lesion assessments. The SoD includes longest diameters of non-nodal lesions and short axis diameters of lymph nodes.

WARNING: The SoD mixes two measurement dimensions — longest diameter (LD) for non-nodal lesions and short axis (SA) for lymph nodes. Your SDTM TR domain must capture LDDIAM (LD) for non-nodal and SAXIS (SA) for nodal target lesions. A common error is capturing only one measurement type for all target lesions.

Table 2.1 — Target Lesion Selection Criteria

Parameter Non-Nodal Lesion Lymph Node Lesion
Measurement usedLongest diameter (LD)Short axis (SA)
Minimum at baseline≥10 mm LD≥15 mm SA
Maximum per organ2 lesions2 lesions
Maximum total5 lesions total5 lesions total
CR definitionLD <10 mm (or disappeared)SA <10 mm (normalized)
SDTM TUORRES / TULOCPRESENTPRESENT
SDTM TRORRES measureLDDIAMSAXIS

Table 2.1. Target lesion selection and measurement standards per RECIST 1.1.

2.3 Non-Target Lesions (NTL)

Non-target lesions are all other tumor lesions (and disease sites) present at baseline that do not qualify as, or were not selected as, target lesions. They are not measured quantitatively but are assessed qualitatively at each evaluation:

  • Present (non-CR/non-PD)
  • Absent (complete resolution → contributes to CR)
  • Unequivocal progression (PD regardless of target lesion behavior)
NOTE: The phrase "unequivocal progression" is a clinical judgment call — it is intentionally not defined numerically. Programmers should not attempt to derive non-target PD algorithmically from a size increase. NTL PD requires a documented clinical determination (typically TRORRES = "UNEQUIVOCAL PROGRESSION" in SDTM TR).

2.4 New Lesions

New lesions represent the appearance of any new site of disease not present at baseline. Under RECIST 1.1, the presence of a new lesion always results in Progressive Disease (PD) for the overall response — regardless of target and non-target lesion behavior. There is no size threshold; a definitively new lesion of any size constitutes PD.

Key programming points for new lesions:

  • New lesions are flagged in SDTM TU with TUORRES = "NEW LESION" or TUSTRESC = "Y" for new lesion flag
  • New lesions appearing after the analysis timeframe cutoff (if defined in the SAP) may be excluded from primary analysis
  • Lesions that are equivocal at Visit N should be re-evaluated at the next scheduled timepoint; if confirmed new → PD from the date of first appearance
  • FDG-PET new lesions: if anatomic imaging is negative but PET is positive, a new lesion is not declared unless confirmed on subsequent anatomic imaging

2.5 SDTM Foundation: TU, TR, and RS Domains

Three SDTM domains form the backbone of RECIST data:

Table 2.2 — SDTM Domain Overview

Domain Purpose Key Variables RECIST Link
TUTumor identification — one record per lesion per timepointUSUBJID, TUSEQ, TULOC, TUORRES, TUSTRESC, VISITNUM, EPOCH, TUREFID, TUEVALDefines which lesions are target vs non-target; assigns TUORRES=TARGET or NON-TARGET
TRTumor results — quantitative measurements per lesion per timepointUSUBJID, TRSEQ, TRLINKID, TRTESTCD (LDDIAM/SAXIS), TRORRES, TRSTRESC, TRSTRESN, VISITNUM, TREVALFeeds SoD calculation; non-target qualitative assessments; new lesion sizing
RSDisease response — overall response per timepointUSUBJID, RSSEQ, RSORRES, RSSTRESC, VISITNUM, RSEVAL, RSEVALID, RSSCATStores derived response (CR/PR/SD/PD/NE) for each evaluator at each timepoint

Table 2.2. SDTM domains supporting RECIST data collection and response derivation.

Critical SDTM Linkage: TRLINKID

The variable TRLINKID in the TR domain links a measurement back to the lesion record in TU via TUSEQ (cast as character). This linkage is essential in ADaM for identifying which measurements belong to which lesion category (target vs non-target) and for computing the SoD correctly. Missing or incorrect TRLINKID values are the most common SDTM data quality issue in oncology studies.


/* SDTM TR — Example linking logic */
/* TR.TRLINKID = TU.TUSEQ (character) for the baseline lesion identification */

/* Example data: Subject 001-001, Lesion 1 (Target, Right Lung) */
TU: TUSEQ=1, USUBJID=001-001, TULOC=RIGHT LUNG, TUORRES=TARGET, VISITNUM=1

/* TR measurement at baseline */
TR: TRSEQ=1, USUBJID=001-001, TRLINKID=1, TRTESTCD=LDDIAM, TRSTRESN=25, VISITNUM=1

/* TR measurement at Week 8 */
TR: TRSEQ=5, USUBJID=001-001, TRLINKID=1, TRTESTCD=LDDIAM, TRSTRESN=18, VISITNUM=3

Figure 2.1. SDTM TU–TR linkage via TRLINKID. The linkage persists across all timepoints using the baseline TUSEQ value.

3. Target Lesion Response

3.1 Sum of Diameters (SoD)

At each evaluation, the Sum of Diameters (SoD) is computed across all identified target lesions. The baseline SoD is the reference denominator for percentage change calculations. The nadir SoD (lowest post-baseline SoD, including any zero value for complete disappearance) is the reference for PD determination.

Key SoD rules:

  • If a target lesion is "too small to measure" (clearly present but below measurable threshold), assign the minimum measurable size (5 mm for non-nodal; 10 mm SA for nodal) — do not assign zero
  • If a target lesion is absent (completely disappeared), assign 0
  • If any target lesion is Not Done (ND) or Not Evaluable (NE), the SoD for that visit is flagged as non-evaluable — this propagates to target lesion response of NE

3.2 Target Lesion Response Criteria

Table 3.1 — Target Lesion Response Criteria

Response Abbreviation Criterion SoD Condition Notes
Complete ResponseCRDisappearance of all target lesions; short axis of all pathological LN <10 mmSoD = 0 (non-nodal: all absent; nodal: SA <10 mm)Every target lesion must qualify; a single measurable residual lesion prevents CR
Partial ResponsePR≥30% decrease in SoD vs. baseline SoDSoD ≤ (0.70 × Baseline SoD)Baseline SoD is the denominator, not nadir. Must not qualify as CR. Must not meet PD criteria.
Progressive DiseasePD≥20% increase in SoD vs. nadir AND ≥5 mm absolute increaseSoD ≥ (1.20 × Nadir SoD) AND SoD ≥ (Nadir SoD + 5 mm)The 5 mm absolute increase prevents noise-driven PD calls on very small nadir values. Nadir = minimum SoD including baseline.
Stable DiseaseSDNeither PR nor PD criteria metSoD between PR and PD thresholdsMust be maintained for a minimum interval (typically 6–8 weeks) from start of treatment — specified in the protocol.
Not EvaluableNEAny target lesion measurement missing, indeterminate, or not done at a visitN/ANE is not a "response" — it indicates the overall visit response cannot be determined. Different from SD.

Table 3.1. Target lesion response criteria per RECIST 1.1. CR, PR, PD, SD, and NE are mutually exclusive at each evaluation timepoint.

3.3 Worked Derivation Example

Table 3.2 — Worked SoD Derivation (Subject 001-001)

Visit L1 (LD mm) L2 (LD mm) L3 (SA mm) SoD (mm) % Change vs BL % Change vs Nadir TL Response
Baseline (V1)28202270Ref (BL)
Week 8 (V2)22161856-20.0%-20.0%SD
Week 16 (V3)14101236-48.6%-35.7%PR
Week 24 (V4)87015-78.6%Nadir (0.0%)PR
Week 32 (V5)129021-70.0%+40.0% (+6mm)PD

Table 3.2. Worked SoD derivation. L3 is a lymph node (short axis). PD at V5: 40% increase from nadir (21 vs 15 mm) AND 6 mm absolute increase — both thresholds met.

NOTE: The nadir at V4 = 15 mm. PD at V5 requires SoD ≥ 1.20 × 15 = 18 mm AND SoD ≥ 15 + 5 = 20 mm. V5 SoD = 21 mm. Both conditions are satisfied → PD.

3.4 ADaM Variables for Target Lesion Response

Table 3.3 — Key ADaM Variables for TL SoD Records

ADaM Variable Label Derivation Source Example Value
AVALAnalysis Value (SoD mm)Sum of TRSTRESN across target lesions for TRTESTCD in (LDDIAM, SAXIS)56.0
BASEBaseline SoD (mm)AVAL where ABLFL='Y'70.0
CHGChange from Baseline (mm)AVAL - BASE-14.0
PCHGPercent Change from Baseline100 × (AVAL - BASE) / BASE-20.0
NXVISITNadir SoD at or before current visitMIN(AVAL) from baseline through current visit56.0
CHGNADChange from Nadir (mm)AVAL - NXVISIT (prior nadir)0.0
PCHGNADPercent Change from Nadir100 × (AVAL - NXVISIT) / NXVISIT0.0
AVALCTarget Lesion ResponseDerived per RECIST 1.1 rules (Table 3.1)SD
ABLFLAnalysis Baseline Flag'Y' if VISITNUM = baseline VISITNUMY
ANL01FLAnalysis Flag (Primary)Protocol-defined evaluability flagY

Table 3.3. Key ADaM variables in the target lesion SoD record (ADRS paramcd = 'TLSOD' or protocol-specific name).

4. Non-Target Lesion Response

4.1 Assessment Rules

Non-target lesion response is a qualitative assessment made by the radiologist at each evaluation. There are three possible states:

Table 4.1 — Non-Target Lesion Response Classification

NTL Response Criterion SDTM TRORRES Programming Note
CRComplete disappearance of all non-target lesions AND normalization of tumor markers (if applicable)ABSENT or COMPLETE RESPONSEAll non-target lesions must be absent. If tumor markers were elevated at baseline, they must now be in normal range.
Non-CR/Non-PDPersistence of one or more non-target lesions (even if reduced in size) OR tumor marker still above normalPRESENT or NON-CR/NON-PDThis is the "present but not PD" category. It is the most common NTL response in practice.
PDUnequivocal progression of existing non-target lesionsUNEQUIVOCAL PROGRESSIONClinical determination — cannot be derived from size alone. If NTL response = PD, overall visit response = PD regardless of TL response.
NENon-target lesion assessment not done or indeterminateNOT DONE or INDETERMINATEPropagates to overall response NE unless target lesion response is already PD (PD takes precedence).

Table 4.1. Non-target lesion response classification per RECIST 1.1.

4.2 SDTM TR Data Structure for Non-Target Lesions

In SDTM TR, non-target lesion assessments are stored qualitatively. TRTESTCD is typically NTRGE (Non-Target Response, Global Evaluation). For programming, a consolidated non-target response per visit is the essential input to the overall response derivation.


/* SDTM TR — Non-target assessment per visit */
/* One TRTESTCD=NTRGE record summarizes all NTLs at the visit */

USUBJID  TRSEQ  TRLINKID  VISITNUM  TRTESTCD  TRORRES
001-001  10     2         3         NTRGE     NON-CR/NON-PD
001-001  15     2         5         NTRGE     NON-CR/NON-PD
001-001  20     2         7         NTRGE     ABSENT

/* Note: TRLINKID links to TU.TUSEQ for the non-target identification record */
/* For multiple NTLs, the global evaluation (NTRGE) consolidates them */

Figure 4.1. SDTM TR structure for non-target lesion global evaluation records.

5. Overall Response Per Visit

5.1 The RECIST 1.1 Response Matrix

The overall response at each visit is the logical combination of three inputs: Target Lesion (TL) response, Non-Target Lesion (NTL) response, and New Lesion (NL) presence.

Table 5.1 — RECIST 1.1 Overall Response Combination Matrix

TL Response NTL Response New Lesion? Overall Response Rationale
CRCRNoCRComplete resolution of all disease, no new sites
CRNon-CR/Non-PDNoPRTL gone but NTL residual — cannot call CR
CRNENoPRNTL unevaluable but TL gone — conservative call is PR
PRNon-CR/Non-PD or CR or NENoPRTL ≥30% decrease dominates (assumes NTL not PD)
SDNon-CR/Non-PD or CR or NENoSDTL stable; NTL not progressed
NENon-CR/Non-PD or CR or NENoNETL unevaluable — cannot determine response
NENENoNENeither domain evaluable
AnyPDNoPDNTL unequivocal progression overrides TL
PDAnyNoPDTL progressive disease
AnyAnyYesPDAny new lesion = PD, unconditionally
N/A (no TL)CRNoCRWhen no target lesions designated, use NTL response
N/A (no TL)Non-CR/Non-PDNoNon-CR/Non-PD (= SD)No target lesions; NTL response drives overall

Table 5.1. RECIST 1.1 overall response combination matrix. This table is the central decision tree encoded in ADRS derivation logic.

5.2 Priority Ordering in Code

When coding the matrix, establish a clear priority chain to avoid ambiguity from overlapping conditions. The recommended programming priority is:

  1. New lesion present → PD (highest priority, terminates evaluation)
  2. NTL response = PD → PD
  3. TL response = PD → PD
  4. TL = CR AND NTL = CR → CR
  5. TL = CR AND NTL = Non-CR/Non-PD → PR
  6. TL = CR AND NTL = NE → PR
  7. TL = PR → PR (NTL not PD from above)
  8. TL = SD → SD (NTL not PD, not all CR)
  9. TL = NE or missing → NE

/* ADRS Overall Response Per Visit — SAS derivation (simplified) */

/* Inputs: TLRESP (target lesion response), NTLRESP (NTL response), NLFL (new lesion flag) */

if NLFL = "Y"                                        then AVALC = "PD";else if NTLRESP = "PD"                               then AVALC = "PD";else if TLRESP  = "PD"                               then AVALC = "PD";else if TLRESP  = "CR" and NTLRESP = "CR"            then AVALC = "CR";else if TLRESP  = "CR" and NTLRESP in ("NON-CR/NON-PD","NE","")
                                                     then AVALC = "PR";else if TLRESP  = "PR"                               then AVALC = "PR";else if TLRESP  = "SD"                               then AVALC = "SD";else if TLRESP  = "NE" or missing(TLRESP)            then AVALC = "NE";

/* Special case: no target lesions designated */
if n_target_lesions = 0 then do;
  if NLFL    = "Y"               then AVALC = "PD";
  else if NTLRESP = "PD"         then AVALC = "PD";
  else if NTLRESP = "CR"         then AVALC = "CR";
  else if NTLRESP = "NON-CR/NON-PD" then AVALC = "NON-CR/NON-PD";
  else                                AVALC = "NE";end;

Figure 5.1. SAS pseudocode for overall per-visit response derivation. TLRESP and NTLRESP are intermediate ADINTEV-level variables (see Section 9).

6. Confirmed Responses and BOR

6.1 Why Confirmation Is Required

For non-randomized (single-arm) trials, RECIST 1.1 requires confirmation of CR and PR responses. A confirmed response means a second assessment at least 4 weeks after the initial response assessment shows the same or better response category. For randomized controlled trials (RCTs), confirmation is protocol-specific and often not required by the primary analysis.

NOTE: The confirmation window (≥4 weeks) is measured from the date of the first response assessment showing CR or PR, not from the start of treatment. The SAP will specify the exact window and handling of intermediate NE assessments.

6.2 Confirmation Logic

Table 6.1 — Confirmation Scenarios and BOR Effect

Scenario Visit 1 Visit 2 (≥4 wk later) Visit 3 Confirmed Response? BOR
Classic confirmed PRPRPRYes — PR confirmed at V2PR
CR confirmedPRCRYes — CR improves on PR; CR confirmed at V2CR
NE between responsesPRNEPRYes — if V3 is ≥4 wk from V1; NE does not break the window per most SAPsPR
Response then PDPRPDNo — PD before confirmationPR (unconfirmed) → check SAP
Single PR, no follow-upPR(no further assessment)No — unconfirmedUnconfirmed PR → protocol dependent
SD between PRsPRSDPRDepends on SAP — most accept if 2nd PR ≥4 wk from 1stPR
SD → no CR/PRSDSDSDN/A (no confirmation needed for SD)SD

Table 6.1. Confirmation scenarios and effect on Best Overall Response.

6.3 Best Overall Response (BOR)

BOR is the best (most favorable) confirmed response across all post-baseline assessment visits. The response hierarchy from best to worst is: CR > PR > SD > PD > NE. BOR is used in ORR, DCR (Disease Control Rate), and CBR (Clinical Benefit Rate) calculations.

BOR derivation rules:

  • CR and PR require confirmation (non-randomized) — confirmed response overrides a later unconfirmed response
  • SD requires the assessment to occur at a minimum interval from start of treatment (typically ≥6–8 weeks per protocol)
  • If only NE responses, BOR = NE
  • BOR = PD if the first and only post-baseline assessment is PD
  • A confirmed PR that is later followed by a confirmed CR: BOR = CR
WARNING: Common error: assigning BOR = PR to a subject whose first assessment is PR but who was never re-assessed (e.g., died or withdrew). This is an unconfirmed PR. BOR in this case is protocol/SAP dependent — many trials assign BOR = NE or "Unevaluable" for the ORR denominator. Always check the SAP evaluability criteria.

7. ADaM Dataset Architecture

A complete RECIST ADaM implementation typically involves four datasets, each serving a distinct analytical purpose:

Table 7.1 — ADaM Dataset Roles in RECIST Implementation

Dataset Structure Primary Purpose CDISC Class
ADRSOne record per subject per parameter per visitPer-visit and overall responses (TL, NTL, overall, BOR)BDS — Basic Data Structure
ADEFFSUMOne record per subject per summary parameterResponse-based efficacy summaries (BOR, responder flag, confirmed response date)BDS — Basic Data Structure
ADINTEVOne record per subject per intermediate evaluation per lesion/visitIntermediate metadata: SoD, lesion-level measurements, evaluability flags — supports ADRS derivationOCCDS or custom intermediate BDS
ADTTEOne record per subject per time-to-event parameterPFS, DOR, TTFR (time to first response), OS when co-analyzedTTE — Time-to-Event structure

Table 7.1. ADaM dataset roles in RECIST implementation.

NOTE: Not all programs separate ADRS from ADEFFSUM. Some SAPs roll summary parameters (BOR, responder flags) into ADRS. The split shown here reflects best practice for clarity and auditability of complex derivations.

8. ADRS

8.1 ADRS Structure and Key Parameters

ADRS follows the BDS structure (one record per subject per parameter per analysis timepoint). Key PARAM/PARAMCD values:

Table 8.1 — Key ADRS PARAMCD Inventory

PARAMCD PARAM Label DTYPE Record Type AVALC Values
TLSODTarget Lesion Sum of Diameters (mm)BlankPer-visit continuousNumeric (AVAL)
TLPCHGTarget Lesion % Change from BaselineBlankPer-visit continuousNumeric (AVAL)
TLRESPTarget Lesion ResponseBlankPer-visit categoricalCR / PR / SD / PD / NE
NTLRESPNon-Target Lesion ResponseBlankPer-visit categoricalCR / NON-CR/NON-PD / PD / NE
NLFLNew Lesion FlagBlankPer-visit binaryY / N
OVRLRESPOverall Response per VisitBlankPer-visit categoricalCR / PR / SD / PD / NE
COVRLRSPConfirmed Overall Response per VisitCNFMPer-visit categorical (confirmed)CR / PR / SD / PD / NE
BORBest Overall ResponseBORONSubject-level (DTYPE=BORON)CR / PR / SD / PD / NE
CBORConfirmed Best Overall ResponseCBORONSubject-level confirmedCR / PR / SD / PD / NE
RSPFLResponder Flag (CR or PR, confirmed)BORONSubject-level binaryY / N

Table 8.1. Key ADRS PARAMCD/PARAM values and their record types. DTYPE distinguishes visit-level from summary-level records.

8.2 ADRS Variable List

Table 8.2 — Core ADRS Variable List

Variable Type Derivation / Source Required
STUDYIDCharDM.STUDYIDYes
USUBJIDCharDM.USUBJIDYes
PARAMCDCharAs per sponsor ADaM PARAMCD listYes
PARAMCharFull label for PARAMCDYes
AVALNumNumeric analysis value (SoD, PCHG) — null for categorical-only paramsCond.
AVALCCharCharacter analysis value (CR/PR/SD/PD/NE) — mapped from RS.RSSTRESC or derivedCond.
ADTNumAnalysis date — from RS.RSDTC converted to SAS dateYes
AVISITCharAnalysis visit label (e.g., "Week 8")Yes
AVISITNNumNumeric analysis visit (VISITNUM or derived)Yes
DTYPECharDistinguishes record types: blank=scheduled, BORON=BOR, CNFM=confirmed, etc.Cond.
ANL01FLCharPrimary analysis flag per SAP evaluability rulesYes
RSEVALCharEvaluator (INVESTIGATOR, CENTRAL)Yes
RSEVALIDNumEvaluator ID (links to specific central reader)Cond.
TRTPCharPlanned treatment (from ADSL)Yes
TRTPNNumNumeric planned treatmentYes
BASENumBaseline SoD (for TL SoD records)Cond.
CHGNumChange from baselineCond.
PCHGNumPercent change from baselineCond.
ABLFLChar"Y" at baseline visitCond.

Table 8.2. Core ADRS variable list. "Cond." = conditionally required per CDISC ADaM BDS standards.

9. ADINTEV

9.1 Purpose and Rationale

ADINTEV (Intermediate Evaluation dataset) is a study-specific intermediate-layer dataset that captures the granular, lesion-level measurements and pre-response calculations that feed ADRS. It is not a submission dataset in the FDA/PMDA sense — it is an analysis-support dataset that makes the derivation of ADRS fully auditable and transparent.

Without ADINTEV, ADRS derivations become opaque macros. With ADINTEV, a reviewer or auditor can trace exactly which lesion measurement drove a particular SoD, why a visit was NE, or how nadir was computed. It is particularly critical in trials with central imaging reads, multiple reader adjudications, and sensitivity analyses.

9.2 ADINTEV Key Content

Table 9.1 — ADINTEV Record Types and Content

Record Type Granularity Key Variables Purpose
Lesion-level measurementsPer subject × lesion × visitUSUBJID, LSID (lesion ID = TUSEQ), LSLOC, LSCAT (target/non-target/new), ADT, LSDIAM, LSMISSFL, LSSMFLRaw input to SoD; individual lesion tracking
SoD computationPer subject × visitUSUBJID, ADT, AVISIT, SODN (SoD numeric), SODC (evaluability status), NEFL, NXSODN (nadir SoD)SoD and nadir; drives TLRESP
TL responsePer subject × visitUSUBJID, ADT, AVISIT, TLRESP, PCHGBL (% change from BL), PCHGND (% change from nadir)Input to overall response matrix
NTL responsePer subject × visitUSUBJID, ADT, AVISIT, NTLRESP, source (TRORRES from TR)Input to overall response matrix
New lesion flagPer subject × visitUSUBJID, ADT, AVISIT, NLFL, NLLOC (lesion location if new)Triggers PD if Y
Evaluability flagsPer subject × visitUSUBJID, ADT, AVISIT, EVALFL, PDATFL, PDMIFLANL01FL logic documentation

Table 9.1. ADINTEV record types and content. This dataset is the audit trail for ADRS derivation.

9.3 ADINTEV Lesion-Level Structure


/* ADINTEV — Lesion-level measurement record structure */

USUBJID  LSID  LSLOC        LSCAT   VISITNUM  ADT        TRTESTCD  LSDIAM  LSMISSFL  LSSMFL
001-001  1     RIGHT LUNG   TARGET  1         01JAN2024  LDDIAM    28.0    N         N
001-001  1     RIGHT LUNG   TARGET  3         15MAR2024  LDDIAM    22.0    N         N
001-001  1     RIGHT LUNG   TARGET  5         10MAY2024  LDDIAM    14.0    N         N
001-001  2     LIVER        TARGET  1         01JAN2024  LDDIAM    20.0    N         N
001-001  2     LIVER        TARGET  3         15MAR2024  LDDIAM    16.0    N         N
001-001  3     MED. LYMPH   TARGET  1         01JAN2024  SAXIS     22.0    N         N
001-001  3     MED. LYMPH   TARGET  3         15MAR2024  SAXIS     18.0    N         N
001-001  4     LIVER        NON-TGT 3         15MAR2024  NTRGE     .       N         N

/* LSID corresponds to TU.TUSEQ for linkage */
/* LSMISSFL=Y means lesion not assessed (drives SODC=NE) */
/* LSSMFL=Y means too small to measure; LSDIAM imputed = 5mm (non-nodal) or 10mm (nodal) */

Figure 9.1. Example ADINTEV lesion-level records. LSID=3 is a mediastinal lymph node (short axis measurement). LSID=4 is a non-target lesion with qualitative response from NTRGE.

10. ADEFFSUM

10.1 ADEFFSUM Role

ADEFFSUM contains one record per subject per summary efficacy parameter. It consolidates BOR, responder flags, response dates, and related summaries that span the entire observation period rather than a single visit. ADEFFSUM feeds frequency tables (e.g., ORR table) and is the source for ORR, DCR, and similar categorical summaries in TFLs.

10.2 Key ADEFFSUM Parameters

Table 10.1 — ADEFFSUM PARAMCD Inventory

PARAMCD PARAM AVAL AVALC Programming Notes
BORBest Overall ResponseCR / PR / SD / PD / NEBest confirmed response across all visits per Section 6
RSPFLResponder Flag (CR or PR)1 = Yes, 0 = NoY / NY if BOR = CR or PR (confirmed). Used as ORR numerator.
CRPRFLCR or PR Flag (unconfirmed)1 / 0Y / NFor sensitivity analysis of unconfirmed responses
SDFLStable Disease Flag1 / 0Y / NY if BOR = SD (with min duration criterion met)
DCRFLDisease Control Flag (CR+PR+SD)1 / 0Y / NY if BOR in (CR, PR, SD)
BORRSPBOR Response DateDate (ADT)Date of first visit contributing to confirmed BOR
TTFRTime to First Response (days)Days from start of treatment to BORRSPAVAL = BORRSP - TRTSDT + 1
EVALFLEvaluable for Response Flag1 / 0Y / NY if subject meets SAP evaluability criteria
RFSTFLReceived First Study Treatment1 / 0Y / NIntent-to-treat indicator; from ADSL RFSTDTC non-missing

Table 10.1. ADEFFSUM PARAMCD inventory for RECIST-based response analysis.

11. ADTTE

11.1 ADTTE Structure

ADTTE follows the CDISC ADaM Time-to-Event structure. Key variables include AVAL (time in days), CNSR (censoring indicator, 1=censored, 0=event), ADT (date of event or censoring), and EVNTDESC/CNSDTDSC (event/censoring description).

Table 11.1 — ADTTE Core Variable Structure

Variable Type Description PFS Example DOR Example
PARAMCDCharParameter codePFSDOR
PARAMCharParameter labelProgression-Free SurvivalDuration of Response
AVALNumAnalysis value (days)Days from randomization to PD/death/censorDays from first response to PD/death/censor
CNSRNum0=event, 1=censored0 if PD or death; 1 if censored0 if PD or death; 1 if censored
ADTNumDate of event or censoringPD date or censoring datePD/death date or censoring date
STARTDTNumStart date for time calculationRandomization date (RANDDT)Date of first confirmed response
EVNTDESCCharEvent descriptionRadiological progression / DeathRadiological progression / Death
CNSDTDSCCharCensoring descriptionSee Table 13.1See Table 13.1
CNSDTDSCNNumNumeric censoring reason code1–7 per Table 13.11–7 per Table 13.1

Table 11.1. ADTTE core variable structure for PFS and DOR parameters.

12. ORR, PFS, and DOR

12.1 Objective Response Rate (ORR)

ORR is the proportion of subjects achieving a confirmed BOR of CR or PR. It is a binary endpoint derived from ADEFFSUM.


/* ORR — numerator and denominator */

/* Numerator: confirmed CR or PR */
ORR_NUM = sum(RSPFL = "Y" and EVALFL = "Y"); /* evaluable subjects with CR/PR */

/* Denominator options (check SAP): */
/*   1. Evaluable population (EVALFL=Y) — most conservative */
/*   2. Full analysis set (FAS) — all treated subjects       */
/*   3. Per-protocol set                                     */
ORR_DEN = sum(EVALFL = "Y"); /* evaluable denominator */

ORR = 100 * ORR_NUM / ORR_DEN;

/* 95% CI: Clopper-Pearson (exact) is standard for single-arm trials */
/* Wilson score or normal approximation used in some RCT settings     */

Figure 12.1. ORR derivation from ADEFFSUM. CI method is specified in the SAP.

12.2 Progression-Free Survival (PFS)

PFS is the time from randomization (or start of treatment in single-arm trials) to the first documented progressive disease or death from any cause, whichever comes first. PFS is a right-censored time-to-event endpoint analyzed using Kaplan-Meier estimation and the log-rank test (in RCTs).

PFS Event Definition:

  • Event: first documented PD (AVALC = "PD" in ADRS, PARAMCD = "OVRLRESP", ANL01FL="Y") OR death from any cause (from ADSL/DS)
  • Event date: date of the imaging assessment showing PD, OR death date — whichever is earliest
  • If PD date and death date are the same, PD is the event
  • If death occurs before the next scheduled imaging, death is the event (no PD date available)

12.3 Duration of Response (DOR)

DOR is defined only for subjects who achieve a confirmed response (CR or PR). It is the time from the date of first confirmed CR or PR to the date of first PD or death.

  • Start date: BORRSP (from ADEFFSUM) — date of first confirmed response visit
  • Event: PD or death (same definition as PFS)
  • DOR is conditional on response — it is not defined for non-responders
  • Median DOR with 95% CI (Kaplan-Meier) is the standard summary statistic
NOTE: DOR start date is the date of the visit at which response was first documented (even if confirmation comes later). If a subject achieves PR at Week 8 and confirmation at Week 16, DOR start = Week 8 date. This is important for duration calculation and should be pre-specified in the SAP.

13. Censoring

13.1 What Censoring Means

Censoring occurs when a subject leaves the study before the event of interest is observed — or when the analysis cutoff date arrives before the event. A censored observation contributes follow-up time to the denominator of the Kaplan-Meier estimator up to the censoring date, but does not count as an event. Incorrect censoring rules are one of the most common analysis errors in RECIST-based oncology programming.

13.2 PFS Censoring Scenarios

Table 13.1 — PFS Censoring Scenarios

Scenario Event? Censoring Date CNSDTDSC CNSR Programming Notes
Progressive disease documented on imagingYes (PD)N/A — event date = imaging dateN/A0EVNTDESC = "Radiological Progression"
Death before PD documentedYes (death)N/A — event date = death dateN/A0EVNTDESC = "Death". ADT = death date from DS/ADSL.
Death same visit as PDYes (PD)N/AN/A0PD takes precedence; event date = imaging date
Still in study, no event at cutoffNoMin(cutoff date, last adequate tumor assessment date)Last known alive without PD1Use last assessment date, not cutoff date, if assessment is before cutoff
Withdrew consent (no PD)NoDate of last adequate tumor assessment before withdrawalWithdrawal of consent1Do NOT censor at withdrawal date — use last tumor assessment
Started new anti-cancer therapy (no PD)No (primary) or sensitivity eventDate of last adequate tumor assessment before new therapyStarted new anti-cancer therapy1Primary PFS ignores new therapy. Sensitivity analysis may treat as event.
Missed ≥2 consecutive scheduled assessments, then PDYes or censored per SAPDate of last assessment before missed visitsTwo or more missed assessments before progression1 (primary) or 0 (sensitivity)FDA often requires censoring at last adequate assessment when ≥2 visits missed before PD. Key sensitivity analysis.
Tumor assessment not done at final contactNoLast adequate tumor assessment date (not last contact)No adequate post-baseline assessment1Final contact date ≠ censoring date if tumor not assessed

Table 13.1. PFS censoring scenarios. FDA guidance (March 2023 Clinical Trial Endpoints document) is the primary reference for censoring rules in oncology NDAs.

13.3 DOR Censoring Scenarios

Table 13.2 — DOR Censoring Scenarios

Scenario Event? Censoring Date CNSR Notes
PD documented after responseYesN/A — event date = PD imaging date0Event from same ADRS PARAMCD=OVRLRESP source
Death before PD (responders)YesN/A — event date = death date0Death counts as event for DOR in most SAPs
Still in response at cutoffNoLast adequate tumor assessment at or before cutoff1CNSDTDSC = "Still in Response at Cutoff"
Withdrew (responder, no PD)NoLast adequate tumor assessment before withdrawal1Consistent with PFS censoring approach
Subject never confirmed responderN/AN/A — excluded from DOR analysisN/ADOR is defined only for confirmed responders (RSPFL=Y)

Table 13.2. DOR-specific censoring scenarios.

13.4 ADaM ADTTE Variables for Censoring Documentation


/* ADTTE censoring variable population — PFS example */

/* Event subject */
PARAMCD=PFS  AVAL=84   CNSR=0  ADT=25MAR2024  EVNTDESC="Radiological Progression"
             STARTDT=01JAN2024  CNSDTDSC=""  CNSDTDSCN=.

/* Censored subject — still in study at cutoff */
PARAMCD=PFS  AVAL=120  CNSR=1  ADT=01MAY2024  EVNTDESC=""
             STARTDT=01JAN2024  CNSDTDSC="Alive Without Progression at Cutoff"
             CNSDTDSCN=1

/* Censored subject — missed ≥2 assessments before PD (primary analysis) */
PARAMCD=PFS  AVAL=56   CNSR=1  ADT=26FEB2024  EVNTDESC=""
             STARTDT=01JAN2024  CNSDTDSC="Two or More Missed Assessments Before PD"
             CNSDTDSCN=5

/* CNSDTDSCN lookup: 1=Alive NoPD at Cutoff, 2=Withdrew, 3=New ACA Therapy,
   4=Lost to F/U, 5=Missed Assessments, 6=Death No PD, 7=Other */

Figure 13.1. ADTTE CNSR and CNSDTDSC population examples for PFS. CNSDTDSCN enables programmatic analysis of censoring patterns.

14. Sensitivity Analyses

14.1 Purpose

Sensitivity analyses test the robustness of primary endpoint conclusions by varying assumptions about ambiguous or missing data. FDA and EMA both expect pre-specified sensitivity analyses in the SAP for oncology NDA/BLA submissions. Programmers must implement each as a distinct ANL0nFL flag (e.g., ANL02FL, ANL03FL) or as a separate ADTTE parameter with a distinct PARAMCD.

14.2 Standard Sensitivity Analyses for PFS

Table 14.1 — Standard PFS Sensitivity Analyses

Sensitivity Analysis Deviation from Primary PARAMCD / Flag Programming Approach
Treat missing assessment as PDWhen ≥2 consecutive assessments missed and PD later occurs, treat PD as event at the originally scheduled assessment datePFSS1 or ANL02FLIdentify subjects with gap ≥(2×assessment interval); set event date to scheduled date of first missed assessment after which PD occurs
New anti-cancer therapy as PD eventSubjects who start new ACA therapy (without documented PD) are treated as eventsPFSS2 or ANL03FLFlag in ADSL or ADCM: NACAFL=Y; use min(PD date, last assessment date before new ACA therapy start)
Unconfirmed response as eventFor DOR, count unconfirmed responsesDORS1 or ANL02FL on ADTTE PARAMCD=DORRemove confirmation requirement; update STARTDT to date of first CR/PR
Central vs investigator PFSRepeat primary PFS analysis using central read responses onlyPFSCR or RSEVAL=CENTRALFilter ADRS to RSEVAL='CENTRAL'; re-derive PFS dates from central assessments
Extended censoring windowUse last contact date (not last tumor assessment) as censoring datePFSS3Use max(last tumor assessment, last contact date) for censored subjects
Best supportive care excludedExclude subjects who never received any active study drugANL04FLADSL TRTFL=Y and DOSEDURFL=Y (received ≥1 dose)

Table 14.1. Standard PFS sensitivity analyses. Each should be pre-specified in the SAP with explicit censoring rule deviations documented.

15. Investigator vs. Central Read Concordance

15.1 Why Two Reads?

In oncology studies intended to support regulatory approval, imaging is often reviewed both by the site investigator and by an independent central imaging review (IRC). The rationale:

  • Investigator read may be subject to bias (open-label trials)
  • Central read provides blinded, standardized evaluation for regulatory credibility
  • Concordance analysis assesses whether site and central reads are in agreement
  • In FDA submissions, central read often serves as the primary ORR and PFS assessment; investigator read is supportive

15.2 SDTM/ADaM Handling

Both investigator and central reads are stored in SDTM RS domain, differentiated by RSEVAL and RSEVALID:


/* SDTM RS — Dual evaluator records */

USUBJID  RSSEQ  VISITNUM  RSORRES  RSSTRESC  RSEVAL          RSEVALID
001-001  1      3         PR       PR        INVESTIGATOR    .
001-001  2      3         SD       SD        CENTRAL READER  CRIT01
001-001  3      5         PR       PR        INVESTIGATOR    .
001-001  4      5         PR       PR        CENTRAL READER  CRIT01

/* In ADRS: RSEVAL populates the evaluator dimension; ANL01FL governs which    */
/* evaluator is used in the primary analysis                                    */

Figure 15.1. SDTM RS structure for dual-reader assessments.

15.3 Concordance Analysis Framework

Table 15.1 — Concordance Statistics for Investigator vs. Central Read

Statistic Formula / Definition SAS PROC / Method Regulatory Relevance
Overall agreement rate(concordant pairs / total evaluable pairs) × 100FREQ with AGREE option or manual tabulationSimple summary; limited clinical meaning
Cohen's Kappaκ = (Po − Pe) / (1 − Pe) where Po=observed agreement, Pe=expected by chancePROC FREQ / tables INV*CENTRAL / agreeκ ≥0.6 = substantial, κ ≥0.8 = almost perfect; FDA often expects κ in concordance report
Positive predictive agreement (PPA)Proportion of central-read responders confirmed by investigatorManual tabulation from 2×2 tableAssesses whether investigator over-reads responses relative to central
Negative predictive agreement (NPA)Proportion of central-read non-responders confirmed by investigatorManual tabulationAssesses false positive rate for investigator read
BOR category frequencyCross-tab of INV BOR vs. CENTRAL BORPROC FREQ; tables INVBOR*CTRDBOR / chisqIdentifies systematic discordance patterns

Table 15.1. Concordance statistics for investigator vs. central read comparison.

15.4 ADaM ADRS for Concordance


/* ADRS concordance — derive wide format for Kappa */

proc sort data=adrs; by usubjid rseval; run;

proc transpose data=adrs(where=(paramcd="BOR" and dtype="BORON"))
  out=adrs_wide prefix=bor_;
  by usubjid;
  id rseval;   /* INVESTIGATOR, CENTRAL */
  var avalc;run;

/* bor_INVESTIGATOR, bor_CENTRAL now on same record per subject */

proc freq data=adrs_wide;
  tables bor_INVESTIGATOR * bor_CENTRAL / agree;run;
/* AGREE option gives Cohen's Kappa with 95% CI */

Figure 15.2. SAS approach to concordance analysis using ADRS wide transposition and PROC FREQ with AGREE option.

16. Writing ADaM Specs for RECIST Datasets

16.1 Principles of RECIST ADaM Spec Authorship

ADaM specifications for RECIST datasets are among the most complex in clinical programming. The key principles:

  • Every derivation decision must be traceable to a primary source: the RECIST 1.1 publication, the protocol, or the SAP. Avoid derivations that rely on tribal knowledge.
  • Intermediate variables (ADINTEV-level) should be specified in a separate computation table before the final ADRS spec, so reviewers can follow the logical chain.
  • Response hierarchy and priority must be explicitly stated — do not rely on the reviewer inferring the if-then sequence.
  • Censoring rules for each TTE parameter must be in a dedicated censoring table within the spec, not buried in prose.
  • Evaluability criteria must be defined with equal precision: what constitutes an "adequate" assessment, how many post-baseline assessments are required, and how missing visits are handled.

16.2 ADRS Spec Structure

Table 16.1 — Recommended ADRS Spec Structure

Spec Section Content Programmer Guidance
PurposeDataset purpose, CDISC class, submission intent1–3 sentences; reference SAP section number
Source datasetsSDTM: TU, TR, RS; ADaM: ADSL, ADINTEVList with CDISC domain abbreviation and key variables pulled
PopulationAnalysis population criteriaReference ADSL flag variable (e.g., FASFL='Y')
PARAMCD listAll parameters with PARAMCD, PARAM, DTYPE, record granularityTabulate all — never leave PARAMCD implicit
Computation NotesStep-by-step derivation for each PARAMCDUse numbered steps; reference RECIST 1.1 rule precisely
SoD CalculationWhich TRTESTCD values, how to handle missing, nadir logicSpecify LDDIAM+SAXIS inclusion; 5mm imputation for too-small
Response MatrixFull TL × NTL × NL matrix as a tableReproduce Table 5.1 in the spec — do not summarize in prose
Confirmation RulesWindow (days), NE handling, intermediate SD handlingSpecify ≥28 days or ≥4 weeks from first response — be exact
BOR DerivationHierarchy, minimum SD duration, confirmed-only flagCR>PR>SD>PD>NE; SD duration ≥ protocol minimum
Censoring TableOne table per TTE parameter listing all censoring scenariosUse tabular format (Table 13.1 structure); reference FDA guidance
Flag VariablesANL01FL, ANL02FL, etc. with exact criteria for eachEvery flag must have a named criterion; do not reference "per SAP"
Handling of Evaluator ReadsHow RSEVAL differentiates reads; which read drives primary ANL01FLState RSEVAL value explicitly; flag each evaluator separately

Table 16.1. Recommended ADRS spec structure for RECIST-based oncology studies.

16.3 ADTTE Spec Highlights

For each TTE parameter (PFS, DOR, TTFR, etc.), the spec must contain:

  1. Event definition — exact response status and source variable triggering the event
  2. Event date — how ADT is derived (assessment date, death date, or earliest of multiple candidates)
  3. Start date — randomization, treatment start, or first response date (parameter-specific)
  4. Censoring table — every scenario from Table 13.1 replicated with study-specific variable names
  5. Competing risks — if death before PD is treated differently (cause-specific vs. Fine-Gray), specify which
  6. Sensitivity analysis PARAMCD list — one row per sensitivity variation with delta from primary

16.4 Common Spec Errors in RECIST Programming

Table 16.2 — Common RECIST Programming Spec Errors

Error Risk Prevention
Using cutoff date instead of last tumor assessment date as censoring dateOverestimates PFS for subjects with early dropoutSpec must state: censor at MIN(cutoff date, last adequate tumor assessment date)
Not specifying the 5 mm absolute increase threshold for PDPD over-called on very small nadir SoDs (e.g., 2 mm × 1.2 = 2.4 mm)Spec must include: SoD increase ≥20% AND ≥5 mm absolute
Applying baseline SoD (not nadir) to PD thresholdUnderstates PD — subjects can grow 19% from baseline but 200% from nadirNadir = minimum SoD from baseline onwards. Spec must be unambiguous.
Not differentiating confirmed vs. unconfirmed BOR for ORR denominatorORR numerator/denominator mismatch between programmer and statisticianSpec must state evaluability criteria and whether unconfirmed responses count
Missing ADINTEV specification entirelyUnauditable derivation; reviewer cannot trace SoD to individual lesionsAlways spec ADINTEV as a companion to ADRS in complex oncology studies
Incorrect TRLINKID matching (character vs. numeric)Lesion measurements fail to merge to TU classificationSpec must define TRLINKID as character; note TUSEQ must be formatted as character for merge key
Forgetting minimum SD duration requirementBOR = SD assigned to subjects showing SD only on first post-baseline visitSpec must state: SD requires assessment ≥ N weeks from start of treatment (N = protocol-specified)

Table 16.2. Common RECIST programming spec errors and prevention strategies.

17. End-to-End Worked Example — Subject 001-001

17.1 Subject Profile

Attribute Value
USUBJID001-001
TreatmentExperimental Drug A
Randomization Date (RANDDT)01 Jan 2024
Target Lesions3 (Right Lung LD: 28 mm; Liver LD: 20 mm; Mediastinal LN SA: 22 mm)
Non-Target Lesions1 (Retroperitoneal LN — non-target)
Baseline SoD70 mm

17.2 Visit-Level Derivation Table

Visit Date TL SoD TL Resp NTL Resp New Lesion Overall Resp Confirmed? BOR Candidate
BL01Jan2470PresentN
Wk 826Feb2456SDNon-CR/Non-PDNSDN/A
Wk 1622Apr2436PRNon-CR/Non-PDNPRPending
Wk 2417Jun2415PRNon-CR/Non-PDNPRYes (≥28 days from Wk 16)Confirmed PR
Wk 3212Aug2421PDNon-CR/Non-PDNPDN/A

Table 17.1. PD at Wk 32: SoD 21 vs nadir 15 mm → +40% (≥20%) AND +6 mm (≥5 mm). Both thresholds met.

17.3 Summary Dataset Values

Dataset PARAMCD AVAL / AVALC ADT CNSR
ADEFFSUMBORPR (confirmed)17Jun24 (confirmation date)N/A
ADEFFSUMRSPFLY17Jun24N/A
ADEFFSUMBORRSP22Apr24 (first response date)22Apr24N/A
ADEFFSUMTTFR112 days22Apr24N/A
ADTTEPFS223 days12Aug240 (event=PD)
ADTTEDOR111 days (22Apr24 → 12Aug24)12Aug240 (event=PD)

Table 17.2. PFS = 223 days from randomization (01Jan24) to PD (12Aug24). DOR = 111 days from first response (22Apr24) to PD (12Aug24).

18. Summary and Key Takeaways

  1. Understand the science first. The 5 mm absolute increase rule for PD, the nadir vs. baseline denominator distinction, and the "unequivocal" language for NTL PD are not arbitrary — they reflect clinical measurement reality. Programmers who understand why a rule exists implement it correctly.
  2. SDTM data quality is foundational. Missing or incorrect TRLINKID, mixed measurement dimensions (LD vs. SA), and unresolved evaluator coding in RS will corrupt every downstream ADaM derivation. Validate SDTM TU/TR before starting ADaM programming.
  3. ADINTEV is not optional for complex oncology trials. Without intermediate metadata, derivations are unauditable. A well-structured ADINTEV pays dividends during every Health Authority query cycle.
  4. Censoring rules belong in a table, not prose. The FDA's Clinical Trial Endpoints guidance specifies PFS censoring expectations; SAPs must implement them explicitly, and ADaM specs must mirror that implementation with variable-level precision.
  5. Confirmation logic is a source of frequent discrepancies. Pre-align with statisticians and clinical operations on the NE handling in the confirmation window, minimum SD duration, and unconfirmed PR treatment in sensitivity analyses.
  6. Investigator vs. central read concordance analysis requires ADRS to carry RSEVAL as an analytical dimension — not as a filter applied after the fact. Design the ADRS structure to accommodate both reads from the outset.
  7. Write specs that stand alone. A reviewer unfamiliar with your study should be able to reproduce every derivation from the spec alone. If your spec references "per RECIST 1.1" without specifying which rule, it is incomplete.

References

  • Eisenhauer EA et al. New response evaluation criteria in solid tumours: Revised RECIST guideline (version 1.1). European Journal of Cancer. 2009;45(2):228-247.
  • CDISC. Analysis Data Model (ADaM) Implementation Guide for Time-to-Event Analyses (ADTTE). CDISC Standard. v1.0 and current version. cdisc.org
  • CDISC. ADaM Basic Data Structure (BDS) for Data That Arise from a Time-to-Event Analysis. CDISC Standard. cdisc.org
  • CDISC. SDTM Implementation Guide for Oncology: Tumor/Lesion Identification (TU), Tumor/Lesion Results (TR), and Disease Response (RS). CDISC Standard. cdisc.org
  • FDA. Clinical Trial Endpoints for the Approval of Cancer Drugs and Biologics. Guidance for Industry. May 2007; updated March 2023. fda.gov
  • FDA. Radiologic Assessment in Cancer Clinical Trials. Draft Guidance for Industry. November 2023. fda.gov
  • CDISC. ADaM Implementation Guide (ADaMIG) v1.3. cdisc.org
  • ICH E9(R1). Statistical Principles for Clinical Trials: Addendum on Estimands and Sensitivity Analysis. November 2019. ich.org

Published by clinstandards.org — Technical Reference for the CDISC Statistical Programming Community. All derivations are based on primary CDISC and regulatory sources.

Find this article useful?

Discussion (0)

No comments yet. Be the first!